CN1193284C - 用于分割手势的方法和设备 - Google Patents
用于分割手势的方法和设备 Download PDFInfo
- Publication number
- CN1193284C CN1193284C CNB991210654A CN99121065A CN1193284C CN 1193284 C CN1193284 C CN 1193284C CN B991210654 A CNB991210654 A CN B991210654A CN 99121065 A CN99121065 A CN 99121065A CN 1193284 C CN1193284 C CN 1193284C
- Authority
- CN
- China
- Prior art keywords
- hand
- gesture
- transitional movement
- motion
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 240
- 230000033001 locomotion Effects 0.000 claims abstract description 414
- 230000007704 transition Effects 0.000 claims abstract description 21
- 238000005520 cutting process Methods 0.000 claims description 161
- 230000009471 action Effects 0.000 claims description 147
- 239000000284 extract Substances 0.000 claims description 63
- 230000036541 health Effects 0.000 claims description 37
- 230000014509 gene expression Effects 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 121
- 230000000875 corresponding effect Effects 0.000 description 87
- 230000005055 memory storage Effects 0.000 description 39
- 230000005484 gravity Effects 0.000 description 34
- 230000001105 regulatory effect Effects 0.000 description 22
- 230000001939 inductive effect Effects 0.000 description 20
- 230000011218 segmentation Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 14
- 208000037656 Respiratory Sounds Diseases 0.000 description 11
- 206010037833 rales Diseases 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 108091029480 NONCODE Proteins 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004040 coloring Methods 0.000 description 5
- 230000003750 conditioning effect Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 208000007101 Muscle Cramp Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
一种手势分割方法,它可以在识别手势将手势自动分割成单词或由多个单词构成的可理解单元,无需用户指出在哪里分割。预先存储包含过渡动作之特征的过渡特征数据,其中在表示单词的动作期间,不会观察到过渡动作,但从一个动作过渡到另一个时,可以观察到过渡动作。然后,检测与观察到过渡动作的身体部位相对应的图像的运动,将检测到的图像运动与过渡特征数据比较,并确定观察到过渡动作的时间位置,以便对手势进行分割。
Description
技术领域
本发明涉及用于分割手势的方法和设备,尤其涉及一种当识别手势时将手语手势自动分割成例如单词的方法和设备。
背景技术
近年来,个人计算机已允许用诸如定位设备进行输入,因此在用户中流行起来而不仅仅限于专业性使用,且不需要进行复杂的键盘操作。
另外,由于后来发展了用户语音自动识别技术,市场上出现了语音输入型个人计算机或者备有语音指示型微机的家用电器(下文将这种个人计算机或具有微机的家用电器称为计算机设备)。假设该技术有进一步的发展,那么计算机设备的输入操作大致会是一种个人间通信的方式。另外,用手操作有困难的用户很容易地访问计算机设备,这要感谢语音输入系统。
人们通过移动手或头,或者改变脸部表情以及说话来相互交流。如果计算机设备能够自动识别人体特殊部位的这些运动,那么用户就可以用一种类似于个人间通信的方法处理输入操作。另外,用语音操作有困难的用户可以用手语容易地访问计算机设备。该计算机设备还可用来翻译手语。
为了对这类需求作出响应,本发明的受让人和其他人已开发了用于识别人体特殊部位运动(包括手语手势)的计算机设备。以下是传统计算机设备中用来识别手语手势的处理过程:
首先,给用户拍照,然后将其图像存储起来。其次将一部分图像指定为手。然后,检测手的运动,并通过参照词典确定与被检测运动匹配的手语单词,其中所述词典叙述了如何做手语动作。用这种方式,计算机设备可以识别用户的手语。
在下文中,就上述过程,详细描述了根据手的运动获得手语单词所执行的过程。
每个手语单词一般由几个单位动作或其组合构成。这里,单位动作是指可分的最小动作,诸如举、降、弯。假设单位动作为A、B和C,那么手语单词可以用以下方式表示,即(A)、(B)、(C)、…、(A,B)、(A,C)、(B,C)、…(A,B,C)、…。人们通过组合这些手语单词进行手语对话。
假设手语单词(A)表示“电源”,而手语单词(B,C)表示“切断”,那么通过表达手语单词(A)和(B,C),即通过连续做单位动作A,B和C,可以完整表示“切断电源”的意思。
在面对面的手语中,当做手语的人(以下称说话人)想着手语单词(A)和(B,C)而连续做出单位动作A,B和C时,他/她的伙伴通常能凭直觉识别一系列表示手语单词(A)和(B,C)的单位动作。另一方面,当把手语输入计算机设备时,即使用户想着手语单词(A)和(B,C)而连续做出单位动作A、B和C,计算机设备也不能将一系列单位动作A、B和C识别为手语单词(A)和(B、C)。
因此,用户在手语单词(A)和(B,C)之间做一预定动作,诸如停顿(下文中,称分割动作a)。具体地说,当用户想输入“切断电源”时,他/她通过在手语单词(A)和(B,C)之间插入分割动作a,来表达所述手语单词,即首先做单位动作A,然后做分割动作a,最后做单位动作B和C。然后,计算机设备检测用户做的一系列动作,在分割动作a的前后进行分割,并获得手语单词(A)和(B,C)。
由此可见,对于计算机设备中执行的传统动作识别方法,当用户每次用手语手势将由几个单词构成的句子输入到计算机设备中时,他/她只能在对应一个单词的手势和对应另一单词的手势之间不厌其烦地插入分割动作。这是因为传统的动作识别方法不能将被检测的动作自动分割成单词。
注意,将被检测的一系列单位动作(动作代码串)分割成单词的方法可以包括,例如,用类似于一种日本字处理器的方式进行处理,在所述日本字处理器中,将字符代码串分割成单词,然后将其转换成字符。
但是,在该情况下,需参考记录单词的词典来分割动作代码串。因此,分割动作代码串的位置并不是唯一确定的。如果属这种情况,那么计算机设备必须向用户提供几种分割方式,然后用户必须选择适于其目的的最佳位置。由此,给用户带来许多麻烦,同时使输入操作很慢。
当参照计算机设备中包含的词典(词典包括手语单词(A)、(B)、(C)、…(A,B)、(A,C)、(B,C)、…(A,B,C)、…),来寻找用户因想着手语单词(A)和(B,C)而连续做出的单位动作A、B和C中的分割位置时,分割位置不会限于一个。因此,计算机设备在一些可能的位置进行分割,向用户提供几种分割方式,诸如(A)和(B,C),(A,B)和(C),或者(A,B,C)。用户对上述分割作出响应,选择一个最适合其目的的分割,然后将选中的位置通知计算机设备。
由此可见,这种基于动作代码串的分割系统不足以自动分割被检测的单位动作系列。
发明内容
因此,本发明的一个目的是提供一种手势分割方法和设备,它能在识别手势时将被检测的手势自动分割成单词,不需要用户说出在哪里分割。
本发明的第一方面是一种手势分割方法,用于当识别用户手势时,将用户手势自动分割成单词或由多个单词构成的可理解单元,该方法包括以下步骤:预先存储包含过渡动作之特征的过渡特征数据,在表示单词的动作期间,不会在用户身体上观察到过渡动作,但从一个动作过渡到另一个动作时,可以观察到过渡动作;对用户摄像,并且存储其图像数据;从图像数据中抽取与观察到过渡动作的身体部分对应的图像;检测与观察到过渡动作的身体部分对应的图像的运动;并且通过比较图像的运动和过渡特征数据,然后求出观察到过渡动作的时间位置,来分割手势,其中图像与观察到过渡动作的身体部分相对应。
如上所述,在第一方面中,根据过渡动作分割手势,其中在表示单词的动作期间,不会在用户身体上观察到过渡动作,但从一个动作过渡到另一个动作时,可以观察到过渡动作。因此,可以将检测到的手势自动分割成单词或由多个单词构成的可理解单元,无需用户指出在哪里分割。
依照第二方面,在第一方面中,过渡动作包括眨眼。
依照第三方面,在第一方面中,过渡动作包括点头。
依照第四方面,在第一方面中,过渡动作包括闭嘴。
依照第五方面,在第一方面中,过渡动作包括停止手的运动。
依照第六方面,在第一方面中,过渡动作包括停止身体的运动。
依照第七方面,在第一方面中,过渡动作包括用手敷面。
依照第八方面,在第一方面中,所述方法还包括在用户周围设置无意义手区域的步骤,即使在该区域中观察到用户的手,也认为手势无效,其中
过渡动作包括手进出无意义手区域。
依照第九方面,在第一方面中,在分割手势的步骤中,测量过渡手势的持续时间,然后根据持续时间,对手势进行分割。
如上所述,在第九方法,可以提高分割准确度。
依照第十方面,在第一方面中,
所述方法还包括以下步骤:
预先存储包含非过渡动作之特征的非过渡特征数据,从表示一个单词的动作过渡到另一个时,不能在用户身体上观察到非过渡动作,但在表示一个单词的动作期间,可以观察到非过渡动作;
从图像数据中抽取与观察到非过渡动作的身体部分对应的图像;
检测与观察到非过渡动作的身体部分对应的图像的运动;并
将图像的运动与非过渡特征数据进行比较,求出观察到非过渡动作的时间位置,其中图像与观察到非过渡动作的身体部分相对应,并且
在分割手势的步骤中,不在观察到非过渡动作的时间位置处分割手势。
如上所述,在第十方面,不在观察到非过渡动作的时间位置处分割手势,从表示一个单词的动作过渡到另一个时,不能在用户身体上观察到非过渡动作,但在表示一个单词的动作期间,可以观察到非过渡动作。因此,可以避免单词分割错误,从而提供分割准确度。
依照第十一方面,在第十方面中,非过渡动作包括使手彼此合拢,手的间距小于一预值。
依照第十二方面,在第十方面中,非过渡动作包括改变嘴形。
依照第十三方面,在第十方面中,非过渡动作包括对称于左手移动右手的运动,以及反之移动左手的运动。
依照第十四方面,在第十三方面中,在对用户摄像并存储其图像数据的步骤中,对用户进行立体摄像,并存储其三维图像数据;
在抽取步骤中,从三维图像数据中抽取与观察到非过渡动作的身体部分相对应的三维图像;
在检测步骤中,检测三维图像的运动;以及
在求时间位置的步骤中,
根据三维图像的运动,检测在右手动作平面和左手动作平面内的变化;并且
当两个动作平面都不改变时,判定观察到非过渡动作,然后求其时间位置。
依照第十五方面,在第十四方面中,在求时间位置的步骤中,根据动作平面法线矢量的变化,检测右手动作平面和左手动作平面内的变化。
依照第十六方面,在第十四方面中,对于与改变方向的三维矢量相对应的多个三维动作代码,所述方法还包括预先生成单一运动平面表的步骤,在单一运动平面表中,包括在单一平面内求得的三维运动代码的组合;和
将三维图像的运动转换成由多个三维运动代码表示的三维运动代码串的步骤,其中
在求时间位置的步骤中,根据单一运动平面表,检测右手动作平面和左手动作平面内的变化。
依照第十七方面,在第一方面中,所述方法还包括以下步骤:
预先存储表示过渡动作的动画的图像数据;
检测过渡动作的检测状态和手势的识别状态;并且
就过渡动作的检测状态和手势的识别状态,向用户视觉显示表示过渡动作的动画。
如上所述,在第十七方面中,当某一过渡动作的检测频率相当低时,或者即使根据检测到的过渡动作对手势进行分割也不能识别手势时,显示表示过渡动作的动画。因此,用户可以参考所显示的动画,有意识地纠正其过渡动作,并由此准确地检测过渡动作。
依照第十八方面,在第十七方面中,在动画显示步骤中,根据手势的识别状态,改变动画的速度。
如上所述,在第十八方面中,当手势识别状态不够正确时,将降低动画的显示速度。然后,诱导用户慢慢地做过渡动作。用这种方式,可以改善手势识别状态。
本发明的第十九方面是一种手势分割设备,用于当识别用户手势时,将用户手势自动分割成单词或由多个单词构成的可理解单元,所述设备包括:
用于存储包含过渡动作之特征的过渡特征数据的装置,在表示单词的动作期间,不会在用户身体上观察到过渡动作,但从一个动作过渡到另一个动作时,可以观察到过渡动作;
用于对用户摄像并存储其图像数据的装置;
用于从图像数据中抽取与观察到过渡动作的身体部分对应的图像的装置;
用于检测与观察到过渡动作的身体部分对应的图像之运动的装置;以及
通过比较图像的运动和过渡特征数据,然后求出观察到过渡动作的时间位置,来分割手势的装置,其中图像与观察到过渡动作的身体部分相对应。
依照第二十方面,在第十九方面中,手势分割设备还包括:
用于存储包含非过渡动作之特征的非过渡特征数据的装置,从表示一个单词的动作过渡到另一个时,不能在用户身体上观察到非过渡动作,但在表示一个单词的动作期间,可以观察到非过渡动作;
用于从图像数据中抽取与观察到非过渡动作的身体部分对应的图像的装置;
用于检测与观察到非过渡动作的身体部分对应的图像之运动的装置;并
用于将图像的运动与非过渡特征数据进行比较,求出观察到非过渡动作的时间位置的装置,其中图像与观察到非过渡动作的身体部分相对应,并且
用于分割手势的装置不对观察到非过渡动作的时间位置处的手势进行分割。
本发明的第二十一方面是一种手势分割设备,用于当识别用户手势时,将用户手势自动分割成单词或由多个单词构成的可理解单元,所述设备包括:
用于存储包含过渡动作之特征的过渡特征数据的装置,在表示单词的动作期间,不会在用户身体上观察到过渡动作,但从一个动作过渡到另一个动作时,可以观察到过渡动作;
用放在用户对面的摄像机对用户摄像并存储其图像数据的装置;
用于从图像数据中抽取与观察到过渡动作的身体部分对应的图像的装置;
用于检测与观察到过渡动作的身体部分对应的图像之运动的装置;
通过比较图像的运动和过渡特征数据,然后求出观察到过渡动作的时间位置,来分割手势的装置,其中图像与观察到过渡动作的身体部分相对应;
用于检测过渡动作之检测状态和手势之识别状态的装置;
就过渡动作的检测状态和手势的识别状态,向用户视觉显示表示过渡动作之动画的装置;以及
用于从用户视线中隐藏掉摄像机的装置。
如上所述,在第二十一方面中,用户看不见摄像机。因此,当用户做手势时,不会有意识,不会紧张。所以,可以提高分割准确度。
依照第二十二方面,在第二十一方面中,动画显示装置包括一个面向上的监视器,该监视器放在垂直方向低于用户与摄像机之间直线的位置上,并且
用于隐藏摄像机的装置包括一个半反射镜,它允许来自前方的光通过,但反射来自后方的光,其中
半反射镜位于用户与摄像机之间的直线上,并且垂直位置高于监视器,相对直线成45度角。
如上所述,在第二十二方面中,可以用一个简单的结构隐藏摄像机。
结合附图阅读以下本发明的详细描述,将更清楚本发明的这些和其它目的、特点、方面和长处。
附图说明
图1是一流程图,示出了依照本发明第一实施例用一种手势分割法进行手势识别的方法。
图2是一方框图,例示了实现图1所示方法的计算机设备结构。
图3是一方框图,示出了依照本发明第二实施例的手语手势分割设备的结构。
图4是一流程图,例示了图3中手语手势分割装置所执行的过程。
图5例示了由身体特征抽取装置302指派的区域代码。
图6例示了存储在分割元素存储装置305中的分割元素数据。
图7例示了由身体特征抽取装置302抽取的肤色区域。
图8例示了由身体特征抽取装置302生成的脸区域信息。
图9示出了脸部特征运动的条件,供特征运动跟踪装置303确定特征运动代码。
图10例示了为运动特征602设置的运动特征参数。
图11例示了由分割位置判定装置304生成的判定代码数据。
图12例示了由身体特征抽取装置302抽取的脸中的肤色区域。
图13例示了由身体特征抽取装置302生成的眼区域信息。
图14示出了眼睛的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
图15例示了由身体特征抽取装置302生成的嘴区域信息。
图16示出了嘴巴的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
图17例示了由身体特征抽取装置302生成的手区域信息。
图18示出了身体和手区域的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
图19示出了关于用手敷面之动作的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
图20示出了关于手之有效性变化的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
图21是一流程图,示出了在通过检测点头来分割手语手势的方法(参照图4)中,如何在考虑每个被检测手势的持续时间的同时进行分割。
图22是一方框图,示出了依照本发明第三实施例的手语手势分割设备的结构。
图23是一流程图,例示了在图22所示手语手势分割设备中执行的过程。
图24是一流程图,例示了在图22所示手语手势分割设备中执行的过程。
图25例示了存储在非分割元素存储装置2201中的非分割元素数据。
图26例示了将在非分割运动特征2502设置的非分割运动特征参数。
图27示出了手语手势对称性的非分割特征运动条件,供特征运动跟踪装置303确定特征运动代码。
图28例示了存储在非分割元素存储装置2201中的手语手势对称性的非分割代码条件。
图29例示了存储在非分割元素存储装置2201中的相同动作平面表。
图30是一方框图,示出了依照本发明第四实施例的分割元素诱导装置的结构(分割元素诱导装置是未示出的手语识别设备和图3或22中手语手势分割设备的附加设备)。
图31是一流程图,示出了在图30的分割元素诱导装置中执行的过程。
图32例示了输入到识别结果输入装置3001中的识别状态信息。
图33例示了输入到分割结果输入装置3002中的分割状态信息。
图34例示了由诱导控制信息生成装置3003生成的诱导控制信息。
图35例示了存储在诱导规则存储装置3005中的诱导规则。
图36是一方框图,示出了为图30中分割元素诱导装置提供的动画速度调节装置的结构。
图37例示了存储在速度调节规则存储装置3604中的速度调节规则。
图38是一示意图,例示了为图22中分割元素诱导装置提供的摄像机隐藏装置的结构。
具体实施方式
以下参照附图,描述本发明的实施例。
(第1实施例)
图1是一流程图,示出了依照本发明第一实施例用一种手势分割法进行手势识别的方法。图2是一方框图,例示了用于实现图1所示方法的计算机设备的结构。
在图2中,计算机设备包括CPU 201、RAM 202、程序存储装置203、输入装置204、输出装置205、摄像装置206、图像存储装置207、手语手势存储装置208和过渡动作存储装置209。
图2的计算机设备首先识别用户的手语手势,然后执行预定的处理。具体地说,假设计算机设备是一个通用个人计算机系统,系统中安装了预定的程序数据,并且有一摄像机与系统相连,实现输入手语并对手语作自动翻译。计算机设备可以包括具有微机的任何家用电器,微机对用户的手势作出响应,接通/切断电源,或者选择操作模式。
图1中的手势识别方法包括手势分割处理,用于当识别用户手势时,将被检测的手势分割成单词,或者分割成由多个单词构成的可理解单元。
这里,为清楚起见,对本发明概括如下。
如在背景技术部分所描述的,为了用手语讲话,一般用几个手语单词组成句子。每个手语单词都由一个或多个单位动作组合而成。另一方面,计算机设备将用户的手势检测成一系列单位动作。因此,为了使计算机设备识别这些手势,需要用种种方式按用户原来的意愿将该单位动作系列分割成单词。
在传统的分割方法中,用户在对应一个单词的动作和对应后一个单词的动作之间作一停顿,从而当计算机设备检测该停顿时,便可分割上述单位动作系列。换句话说,需要用户指出在哪里分割。
当人们用手语面对面交谈时,单词是被连续表达的。本发明的发明人注意到,打手语的人会在对应一个单词的动作和对应后一单词的动作之间以某种方式不自觉地动作,诸如眨眼、闭嘴或点头等(在下文中,将用户在单词间不自觉作出的动作称为过渡动作)。过渡动作还包括单词之间任何自然的停顿。这种过渡动作几乎不会在对应于一种单词的手势中看到。因此,本发明的发明人建议用过渡动作来分割手势。
具体地说,在图1的方法中,计算机设备在检测用户手语手势的同时还检测过渡动作。随后,计算机设备找出观察到过渡动作的时间位置,以便将这些手势(即,一系列单位动作)分割成单词或可理解单元。因此,与传统的分割方法不同,用户不需要指出在哪里分割。
再参照图2,程序存储装置203包括用于实现图1中流程图所示之处理的程序数据。CPU 201根据存储在程序存储装置203中的程序数据执行图1所示的处理。RAM 202用于存储例如CPU 201进行处理所必需的数据,或者将在处理中产生的工作数据。
输入装置204包括键盘或鼠标器,用于响应操作员的操作,将各种类型的指令和数据输入CPU 201中。输出装置205包括一显示器或一扬声器,用于视频或音频输出CPU 201的处理结果。
摄像装置206至少包括一个摄像机,用于对用户的动作进行摄像。当对用户动作进行二维拍摄时,一个摄像机就足够了,但对于三维的情况,一个摄像机是不够的。在这种情况下,需要两个摄像机。
图像存储装置207存储由摄像装置206输出的图像,可以存储多个帧。手语手势存储装置208包括表示手语手势特征的手语特征数据。过渡动作存储装置209包括表示过渡动作特征的过渡特征数据。
以下三种方法可将程序数据存储在程序存储装置203中。第一种方法是,从预先存储着程序数据的记录媒体中读取程序数据,然后将程序数据存储在程序存储装置203中。第二种方法是,接收通过通信线路传输的程序数据,然后将其存储在程序存储装置203中。第三种方法是,在计算机设备发货之前先将程序数据存储在程序存储装置203中。
注意,可以用类似于上述第一至第三方法的方式,分别将手语特征数据和过渡特征数据存储在手语手势存储装置208和过渡动作存储装置209中。
以下将参照图1中的流程图,描述如何操作用上述方式构造的计算机设备。
首先,摄像装置206开始对用户摄像(步骤S101)。以预定的采样间隔(例如,1/30秒)将摄像装置206输出的图像数据存储在图像存储装置207中(步骤S102)。按时序对存储在图像存储装置207中的图像数据的个别帧进行编号(帧号)。
其次,CPU 201分别从步骤S102存储在图像存储装置207中的图像数据帧中抽取对应于用户的手的数据(步骤S103)。然后,CPU 201根据步骤S103中抽取的数据,检测用户的手的运动(步骤S104)。步骤S103和S104将在以后将更详细的描述。
然后,CPU 201从步骤S102存储在图像存储装置207中的图像数据中抽取对应于用户身体特殊部位的数据(步骤S105)。在该例中,特殊部位包括例如眼睛、嘴、脸(轮廓)和身体,在这些部位可以观察到上述过渡动作。在步骤S105,抽取至少对应于一个特殊部位的数据,最好是对应于多个部位的数据。在本例中,假设抽取对应于眼睛、嘴、脸和身体的数据。
接下来,CPU 201根据在步骤S105抽取的数据,检测各部位的运动(步骤S106)。观察手、眼睛、嘴、脸或身体的过渡动作。注意,对于手部运动,可以运用在步骤S104检测到的结果。
以下,将详细描述如何在步骤S103和S105中抽取数据,以及如何在步骤S104和S106中检测运动。
例如,在步骤S103和S105中,如下抽取数据。
首先,CPU 201将存储在图像存储装置207中的图像数据分成多个区域,用户的身体部位分别对应于这些区域。在本例中,将图像数据分成三个区域:包括手的手区域;包括脸的脸区域;以及包括身体的身体区域。区域分割例示如下:
用户通过输入装置204将要抽取部位的颜色输入CPU 201。详细地说,在步骤S103输入手的颜色(例如,肤色),而在步骤S105输入眼白的颜色(例如,白色)、嘴唇的颜色(例如,暗红色)、脸的颜色(例如,肤色),以及衣服的颜色(例如,蓝色)。
CPU 201对输入作出响应,参考构成各区域中图像数据的多个象素数据,然后判断由象素数据表示的每种颜色是否与用户指定的颜色相同或相似,然后只选择被判肯定的象素数据。
换句话说,在步骤S103,只从属于手区域的象素数据中选出表示肤色的数据。因此,用这种方式,可以抽取对应于手的数据。
在步骤S105,只从脸区域选出表示白色的数据。因此,可以抽取对应于眼睛(其眼白)的数据。同样,由于只从脸区域选出表示暗红色的数据,所以可以抽取对应于嘴(嘴唇)的数据。另外,由于只从脸区域选出表示肤色的数据,所以可以抽取对应于脸的数据。再者,由于只从身体区域选出表示蓝色的数据,所以可以抽取对应于身体(衣服)的数据。
在步骤S104中,如下检测运动。
CPU 201比较在步骤S103中从各帧中抽取的数据,以便对各帧中手的运动进行检测。然后,CPU 201按一预定过程对检测到的运动进行编码。
由此,在步骤S104中检测到的手的运动是一个代码串,每个代码串由多个预先为手规定的动作代码组成。动作代码串暂时存储在RAM 202中。
在步骤S106中,如下检测运动。
CPU 201比较在步骤S105中从各帧中抽取的数据,以便对各帧中眼睛、嘴、脸和身体的运动进行检测。然后,CPU 201按一预定过程对检测到的运动进行编码。
由此,在步骤S106检测到的各部位(眼睛、嘴、脸和身体)的运动是一个代码串,每个代码串由多个预先为这些部位规定的动作代码组成。动作代码串暂时存储在RAM 202中。
再参照图2,描述从步骤S107向后执行的处理。
CPU 201从过渡动作存储装置209读取过渡特征数据,以便将其与步骤S106中检测到的各部位的运动进行比较。在该阶段,用步骤S104和S106中使用的多个动作代码描述过渡特征数据,用以表示用户身体诸部位的运动。然后,CPU 201判断各部位(眼睛、嘴、脸或身体)的运动是否与过渡动作(眨眼、闭嘴、点头、或者停止手或身体的运动)相同或相似(步骤S107)。
详细地说,CPU 201对存储在RAM 202中的各部位的动作代码串进行搜索,然后判断是否有动作代码串与过渡特征数据的动作代码或动作代码串相同或相似。
当步骤S107中的判断为否定时,过程进至步骤S109。
当步骤S107中的判断为肯定时,CPU 201确定将步骤S104中检测到的手势分割成单词的位置(步骤S108)。用于确定分割位置的处理执行如下。
首先,CPU 201选择各部位与过渡动作相同或相似的运动,用作可能的分割位置。具体地说,CPU 201对存储在RAM 202中的各部位的动作代码串进行搜索,检测与过渡特征数据的动作代码或动作代码串相同或相似的动作代码串,然后用帧号确定其每个时间位置。以下,将用这种方式确定的时间位置称为可能的分割位置。
接着,CPU 201用上述方式相互比较就各部位搜索到的可能分割位置,然后根据比较结果,确定在哪里分割在步骤S104检测到的手势(一系列单位动作)。
以眨眼为例,可以将垂下眼睑的瞬间(换句话说,即看不同眼白时)视作可能的分割位置。关于闭嘴运动,可以将闭嘴唇的瞬间视为可能的位置。关于点头,可以将脸部下端从下向上改变其运动的瞬间(下巴尖达到最低点时)视作可能的位置。关于停止手的运动,例如,可以将手停止运动的瞬间视作可能的位置。关于停止身体运动,例如,可以将身体停止运动的瞬间视作可能的位置。
在就各部位选取的这些可能位置作相互比较之后,当两个或多个可能的位置相同或小于预定间隔时,CPU 201确定该位置为分割位置。具体地说,当两个或多个可能的位置相同时,将该位置视作分割位置。当两个或多个可能的位置彼此靠近时,将其平均位置视作分割位置(或者将其中任何一个位置视作分割位置)。
在步骤S109,参照步骤S108中确定的分割位置,执行一翻译过程,用以翻译步骤S104中检测到的手势。
具体地说,CPU 201在步骤S108确定的分割位置对在步骤S104检测到的手势进行分割,将其与存储手语手势存储装置208中的手语特征数据进行比较,由此对获得的手语单词进行翻译。在本例中,用步骤S104中使用的多个动作代码描述手语特征数据,用以做手势。
然后,CPU 201判断是否终止操作(步骤S110),如果判断是否定的,那么重复步骤S101所执行的过程及以后的过程。如果判断是肯定的,那么终止操作。
由此可见,依照本实施例,可以根据用户身体的过渡动作来分割手势,这时用户是从表示一个单词的动作过渡到表示另一个单词的动作,而不是在表示单个单词的动作期间。因此,不用用户指示在哪里分割,计算机设备可以自动将检测到的手势分割成单词或由多个单词组成的可理解单元。
尽管在第一实施例中,将图像数据分成三个区域:包括手的手区域;包括脸的脸区域;以及包括身体的身体区域,以便从中抽取对应于用户身体各部位的数据,但是可以将图像数据分成四个区域,即附加一个无意义手区域。在本例中,无意义手区域相当于输出装置205的屏幕底部,用户的手放在该处,其手臂下垂。
只要在无意义手区域看到手,计算机设备就判定用户不在用手语交谈。相反,当手离开无意义手区域时,计算机设备判定开始作手势。用这种方式,计算机设备可以正确地识别用户何时开始作手势。另外,可以将计算机设备设置成,将手进出无意义手区域检测为过渡动作,以便用其进行分割。
尽管在第一实施例中,至少将诸如眨眼、闭嘴、点头、停止手或身体之运动等运动中的一种检测为过渡动作,用于确定在哪里分割,但是过渡动作不限于此。例如,可以将用手敷面的运动视为过渡动作。这是因为,在手语中,经常可以在单词的开头或结束时看到诸如手接近脸或手离开脸的动作。
另外,为了确定分割位置,在第一实施例中,可以考虑过渡动作的持续时间。例如,
将手不动的持续时间与一预定阈值比较。如果持续时间大于该阈值,那么将其定为过渡动作,并用它确定分割位置。如果持续时间小于阈值,那么不能将其定为过渡动作,从而忽略它。用这种方式,可以提供分割准确度。
另外,在第一实施例中,存储非过渡动作以及过渡动作,以便根据它们确定分割位置。这里,非过渡动作是指,当从表示一个单词的动作过渡到表示另一单词的动作时不会在用户身上观察到,但可以在表示一个单词的动作期间观察到的动作。非过渡动作可以包括,例如,两只彼此接近的动作,或者嘴形变化的动作。
详细地说,还可以为图2的计算机设备配备一个非过渡动作存储装置(未示出),并且将包括非过渡动作的非过渡特征数据存储其中。然后,在图1的步骤S106中,检测过渡动作和非过渡动作两者。可以用类似于过渡动作的方法,检测非过渡动作。然后在步骤S108,根据在步骤S106检测到的过渡动作和非过渡动作,对手势进行分割。
具体地说,在第一实施例中,当就各部位选出的可能分割位置进行比较,并发现有两个或多个位置相同或间距小于预定间隔时,据此确定分割位置(换句话说,将重合位置或相邻的可能位置的平均位置定为分割位置)。但是,这不适用于下述情况,即当考虑非过渡动作,并同时对其检测的情况。这意味着,在非过渡动作期间,即使检测到过渡动作,也不能进行分割。用这种方式,可以提高分割准确度。
另外,在第一实施例中,为了使计算机设备精确检测过渡动作,可以在输出装置205的屏幕上显示动画图像,用于诱导用户做正确的过渡动作(换句话说,做计算机设备可识别的过渡动作)。
详细地说,在图2的计算机设备中,预先将表示每个过渡动作的动画图像数据存储在动画存储装置(未示出)中。然后,CPU 201根据过渡动作的检测状态(例如,某个过渡动作的检测频率相当低)以及手势识别状态(根据检测到的过渡动作,是否能在分割后识别出手势)来确定应该把哪个过渡动作提供给用户。然后,CPU 201从动画存储装置中读出表示所选过渡动作的动画图像数据,以便将其输出到输出装置205。用这种方式,输出装置205的屏幕显示表示每个过渡动作的动画,并且用户通过参考所显示的动画,纠正他/她的过渡动作。
(第二实施例)
图3是一方框图,示出了依照本发明第二实施例的手语手势分割设备的结构。
在图3中,手语手势分割设备包括图像输入装置301、身体特征抽取装置302、特征运动跟踪装置303、分割位置判定装置304以及分割元素存储装置305。
例如,手语手势分割设备可以包含在手语识别设备(未示出)中。该设备还可以包含在诸如家用电路或售票机等计算机设备中。
图像输入装置301接收由诸如摄像机等图像输入设备获得的图像。在本例中,除非另作规定,讲话者的动作是二维捕获的,所以用一个图像输入设备就够了。
图像输入装置301接收讲话者的身体图像。分别为图像输入装置301输入的图像(以下称输入图像),就每一帧指派一个号码,然后,将图像传输给身体特征抽取装置302。分割元素存储装置305包括预先存储的身体特征和运动特征,它们作为分割用的元素(以下称为分割元素)。
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征对应的图像。特征运动跟踪装置303根据抽取的图像,计算身体特征的运动,然后将表示计算结果的运动信息传输给分割位置判定装置304。
分割位置判定装置304根据传输的运动信息以及存储在分割元素存储装置305中的运动特征,求来分割位置,然后输出表示分割位置的帧号。
这里,可以用一个或多个计算机来实现图像输入装置301、身体特征抽取装置302、特征运动跟踪装置303以及分割位置判定装置304。可以用诸如硬盘、CD-ROM或DVD(它们与计算机相连)等存储设备来实现分割元素存储装置305。
下面,将描述如何操作按上述方式构造的手语手势分割设备去执行处理。
图4是一流程图,例示了图3中手语手势分割装置所执行的过程。
图4中所示的各个步骤执行如下。
[步骤S401]
如果有输入图像的话,图像输入装置301接收一帧的输入图像。然后,将帧号i增“1”,并将输入图像传输给身体特征抽取装置302。然后,过程进至步骤S402。
当没有输入图像时,将帧号i设为“0”,然后将判定代码号j设为“1”。然后,过程重复步骤S401。
[步骤S402]
身体特征抽取装置302根据讲话者的身体划分空间区域。例如,用类似于日本专利公开第9-44668号中“检测动作起始位置的方法”揭示的方法,划分空间区域。
具体地说,身体特征抽取装置302首先根据图像数据中背景和讲话者之间的颜色差异,检测人体区域,然后沿着检测到的人体区域的轮廓线,绕讲话者划分空间区域。然后,分别为划分获得的每个区域指派一个区域代码。
图5例示了由身体特征抽取装置302指派的区域代码。
在图5中,用人体区域的轮廓线502、头部外接矩形503、颈线504、身体左侧线505、身体右侧线506以及无意义手区域决定线507,来划分一个输入图像501(空间区域)。
具体地说,身体特征抽取装置302首先参照人体区域的轮廓线502,检测颈的位置,并在颈的位置,平行于X轴,画颈线504。然后,身体特征抽取装置302平行于X轴画无意义手区域决定线507,该线的高度等于颈线离开屏幕底部的高度乘以次手决定比的乘识。这里,次手决定比是一用于确认手有效的参数。因此,当手低于次手决定线507时,判定此时进行中的手势无效,换句话说,即使手势在进行,但手不在动。在本实施例中,将次手决定比设为大约1/5。
接下来,为上述划分后获得的每个区域指派区域代码。附图中圆圈内的每个数字就是区域代码。在本实施例中,如图5所示分配区域代码。具体地说,头部外接矩形503以外、颈线504以上的区域为①;头部外接矩形503以内的区域为②;颈线504与次手决定线507之间、身体左侧线505以左的区域为③;由颈线504、次手决定线507、身体左侧线505和身体右侧线506所围成的区域为④;颈线504和次手决定线507之间、身体右侧线506以右的区域为⑤;而次手决定线507以下的区域为⑥。
然后,过程进至步骤S403。
[步骤S403]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征对应的图像。以下,将用这种方法抽取的图像称为被抽取的身体特征。
图6例示了存储在分割元素存储装置305中的分割元素数据。
在图6中,分割元素数据包括身体特征601和运动特征602。身体特征601包括一个或多个身体特征。在本例中,身体特征601包括脸区域;眼睛;嘴;手区域和身体;手区域和脸区域;以及手区域。
将运动特征602设置为分别与身体特征601中的身体特征对应的运动特征。具体地说,将点头时的下巴尖设置对应于脸区域;将眨眼设置对应于眼睛;将嘴形变化设置对应于嘴;使停顿对应于手区域和身体;将用手敷脸的动作设置对应于手区域和脸区域;并将改变手之有效性的点设置对应于手区域。
身体特征抽取部分302将设置在身体特征601中的身体特征检测为被抽取的身体特征。例如,当把身体特征601设置为“脸区域”时,身体特征抽取装置302抽取脸区域,作为被抽取的身体特征。
现在,描述如何抽取脸区域。
身体特征抽取装置302首先根据RGB颜色信息,从输入图像中抽取肤色区域。然后,身体特征抽取装置302从肤色区域中取出重叠在区域代码为②的区域(头区域)上的部分,这里所述区域代码是由步骤S402中的划分而获得的,然后将该部分视为脸区域。
图7例示了由身体特征抽取装置302抽取的肤色区。
如图7所示,肤色区域包括脸的肤色区域702和手的肤色区域703。因此,由于不能区别地脸的肤色区域702和手的肤色区域703,所以根据RGB颜色信息进行抽取是不够的。因此,如图5所示,先将输入图像分为区域①至⑥,然后只从被抽取的肤色区域中取出重叠在头区域701(图5中的区域②)上的部分。用这种方式,便可获得脸的肤色区域702。
接下来,身体特征抽取装置302生成脸区域信息。这意味着,身体特征抽取装置302用被抽取脸区域的重心、面积、横向最大长度以及纵向最大长度,来设置第i个脸区域信息face[i]。
图8例示了由身体特征抽取装置302生成的脸区域信息。
在图8中,脸区域信息包括脸区域的重心坐标801、其面积802、其横向最大长度803以及纵向最大长度804。
然后,过程进至步骤S404。
[步骤S404]
当帧号i为1时,过程返回步骤S401。如果不为1,则过程进至步骤S405。
[步骤S405]
特征运动跟踪装置303参考第i个脸区域信息face[i]和第(i-1)个脸区域信息face[i-1],用<等式1>求脸区域的特征运动代码。另外,特征运动跟踪装置303参考第i个脸区域信息face[i]的g_face[i]和第(i-1)个脸区域信息face[i-1]的重心g_face[i-1],求出第i个脸区域中的脸部运动矢量V-face[i]。
<等式1>
接下来,特征运动跟踪部分303参考第i个脸区域中的脸部运动矢量V-face[i],确定特征运动代码。
图9示出了脸部特征运动的条件,供特征运动跟踪装置303确定特征运动代码。
在图9中,脸部特征运动的条件包括运动代码901和条件902。运动代码901设为数字“1”至“8”,而将条件902设置为与运动代码901的各数字对应的脸部特征运动的条件。
详细地说,特征运动跟踪装置303参考图9中的条件902,然后选择与第i个脸区域中的脸部运动矢量V_face[i]相对应的脸部特征运动的条件。然后,特征运动跟踪装置303从图9的运动代码901中获得与脸部特征运动的所选条件相对应的数字,以便确定特征运动代码。
然后,过程进至步骤S406。
[步骤S406]
分割位置判定装置304参考存储在分割元素存储装置305中的分割元素数据(参见图6),并检查所定特征运动代码是否与运动特征602一致。为运动特征602设置一表示运动特征的参数(运动特征参数),用于确认分割。
图10例示了为运动特征602设置的运动特征参数。
在图10中,运动特征参数包括运动特征1001、判定代码1002、时间1003、和分割位置1004。运动特征1001表示运动特征的类型。判定代码1002是用于确定运动特征的代码串。时间1003是用来确定运动特征的时间。分割位置1004表示运动特征中的分割位置。
在判定代码1002包括的代码串中,每个代码用数字“1”至“8”表示,方法类似于图9中的运动代码901(特征运动代码),并用数字“0”表示停顿,代码用连字符连接。
例如,当代码顺序为“1”、“0”和“2”时,判定步骤S405中确定的特征运动代码与“1-0-2”代码串一致。
这里,括号中的代码表示该代码在用上述方式判定时相对不重要。例如,可以认为“7-(0)-3”代码串与“7-3”代码串是相同的。
另外,带斜杠的代码表示两者之中的任何一个代码都行。例如,当代码为“0/3”时,认为代码“0”或“3”都有效(未示出)。
“*”字符表示任何代码都适用。
为了检测点头,图6中适用的身体特征601是“脸区域”,而适用的运动特征602是“点头时的下巴尖”。在该情况下,分割位置判定装置304判断步骤S405中确定的脸部特征运动代码是否与对应于图10中“点头时的下巴尖”的代码串“7-(0)-3”一致。
手语手势分割设备判断j是否为1。如果j=1,过程进至步骤S407。
当j>1时,过程进至步骤S409。
[步骤S407]
手语手势分割设备判断特征运动代码是否与判定代码1002的第一个代码一致。如果一致,过程进至步骤S408。如果不一致,过程返回步骤S401。
[步骤S408]
分割位置判定装置304生成判定代码数据。这意味着,分割位置判定装置304将第一个判定代码数据Code_data[1]的代码数字设定为特征运动代码,而将其代码起始帧号设定为i。
图11例示了由分割位置判定装置304生成的判定代码数据。
在图11中,判定代码数据包括代码数字1101、代码起始帧号1102和代码结束帧号1103。
当用图10举例时,利用特征运动代码“7”,将第一个判定代码数据Code_data[1]的代码数字设置为“7”,而将第一个判定代码数据Code_data[1]的代码起始帧号设置为i。
然后,将j设为2,过程返回步骤S401。
[步骤S409]
判断特征运动代码是否与第(j-1)个判定代码数据Code-data[j-1]一致。如果一致,过程返回步骤S401。
如果不一致,过程进至步骤S410。
[步骤S410]
分割位置判定装置304将第(j-1)个判定代码数据Code_data[j-1]的代码结束帧号设为(i-1)。然后,过程进至步骤S411。
[步骤S411]
判断判定代码1002包括的代码数是否为j或更大。如果是,过程进至步骤S412。
当判定代码1002包括的代码数为(j-1),那么过程进至步骤S417。
[步骤S412]
判断判定代码1002的第j个代码是否与特征运动代码一致。如果不一致,过程进至步骤S413。
如果一致,过程进至步骤S416。
[步骤S413]
判断判定代码1002的第j个代码是否在括号中。如果是,则过程进至步骤S414。
如果不是,则过程进至步骤S415。
[步骤S414]
判断判定代码1002的第(j+1)个代码是否与特征运动代码一致。如果不一致,则过程进至步骤S415。
如果一致,则j增1,然后过程进至步骤S416。
[步骤S415]
首先,将j设为1,然后过程返回步骤401。
[步骤S416]
将第j个判定代码数据Code_data[j]的代码数字设定为特征运动代码。另外,将第j个判定代码数据Code_data[j]的代码起始帧号设置为i。然后,将j增1。然后,过程返回步骤S401。
[步骤S417]
分割位置判定装置304根据运动特征1001和分割位置1004(参照图10),求出运动特征中的分割位置。
当适用的运动特征是“点头时的下巴尖”时,相应的分割位置是Y坐标中的最低点。因此,分割位置判定装置304求得相应的帧号。
具体地说,分割位置判定装置304对适用于第1个判定代码数据Code_data[1]的代码起始号和第(j-1)个判定代码数据Code_data[j-1]的代码结束帧号之间的各帧,比较脸区域中的重心Y坐标。然后,将重心Y坐标是最小的帧的帧号(即,脸区域的重心达到最低点)设为运动特征中的分割位置。
注意,当几个帧号适用于Y坐标最低点时,将第一帧号(最小帧号)视为分割位置。
然后,过程进至步骤S418。
[步骤S418]
手语手势分割设备输出分割位置。然后,过程返回步骤S401,重复上述过程。
用这种方式,可以实现通过检测点头来分割手语手势的方法。
以下,描述通过检测眨眼来分割手语手势的方法。
在通过检测眨眼来分割手语手势的方法中,为检测点头而在步骤S403中描述的过程(参见图4)修改如下。
[步骤S403a]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征601(参见图6)对应的图像。
当检测眨眼时,将身体特征601设置为“眼睛”,并且身体特征抽取装置302抽取眼睛,作为被抽取的身体特征。
现在,描述如何抽取眼睛。
首先,用类似于步骤S403的方式抽取脸区域。然后,用以下方式,从被抽取的脸区域中抽取眼睛。
图12例示了由身体特征抽取装置302抽取的脸区域。
在图12中,被抽取的脸区域1201包括由眉毛1202形成的两个洞区域、由眼睛1203形成的两个洞区域,以及由嘴巴1204形成的一个洞区域(阴影区为肤色区域)。
附图中用标号1205表示的直线是脸的上下分割线。脸的上下分割线1205是将被抽取的脸区域1201分成上下两个部分的直线。
首先,在脸的上下端之间,在由脸的上下分割比确定的位置处,画该脸的上下分割线1205。这里,脸的上下分割比是一参数,它被如此设置,使得眼睛1203形成的洞区域位于脸的上下分割线1205以上的区域内。在本实施例中,将脸的上下分割比设为“1/2”。
接下来,检测脸区域中位于脸的上下分割线1205以上的任何洞区域。
当检测到两个洞区域时,则判定该洞区域是眉毛,并且眼睛是闭合的。
当检测到三个洞区域时,判定一个眼睛闭合,而位于较低部位的洞区域为眼睛。
当检测到四个洞区域时,判定两个眼睛都睁着,并且位于较低部位的两个洞区域为眼睛。
当用图12举例时,有四个洞区域。因此,位于较低部位的两个洞区域是由眼睛1203形成的洞区域。
然后,身体特征抽取装置302生成眼睛区域信息。具体地说,在第i个眼睛区域信息eye[i]中设置被抽取眼睛的数目及其面积。
图13例示了由身体特征抽取装置302生成的眼区域信息。
在图13中,眼区域信息包括眼睛的数目1301、第1个眼睛的面积1302以及第2个眼睛的面积1303。
身体特征抽取装置302首先将眼睛的数目1301设置为被抽取眼睛的数目,然后用以下方式,根据被将眼睛的数目设置眼睛的面积。
当被抽取眼睛的数目为0时,将第1个眼睛的面积1302和第2个眼睛的面积1303都设为0。
当被抽取眼睛的数目为1时,计算该眼睛的面积(由眼睛1203形成的洞区域),并将该面积设置到第1个眼睛的面积1302中。第2个眼睛的面积设置为0。
当被抽取眼睛的数目为2时,计算各眼睛的面积。将第1个眼睛的面积1302设置为左眼的面积(由左眼1203形成的洞区域),而将第2个眼睛的面积1303设置为右眼的面积。
然后,过程进至步骤S404。
在通过检测眨眼来分割手语手势的方法中,将步骤S404中的过程修改如下。
[步骤S405a]
特征运动跟踪装置303参考第i个眼区域信息eye[i]和第[i-1]个眼区域信息eye[i-1],用<等式2>求眼睛的特征运动代码。另外,特征运动跟踪装置303参考第i个眼区域信息eye[i]中第1个眼睛的面积s1_eye[i]以及第[i-1]个眼区域信息eye[i-1]中第1个眼睛的面积s1_eye[i-1],求出第i个眼区域中第1个眼睛面积的变化d1_eye[i]。另外,特征运动跟踪装置303参考第i个眼区域信息eye[i]中第2个眼睛的面积s2_eye[i]以及第[i-1]个眼区域信息eye[i-1]中第2个眼睛的面积s2_eye[i-1],求出第i个眼区域中第2个眼睛面积的变化d2_eye[i]。
<等式2>
图14示出了眼睛的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
在图14中,眼睛的特征运动条件包括运动代码1401和条件1402。将运动代码1401设为数字“0”至“6”,并将条件1402设置为对应于运动代码1401各数字的眼睛特征运动条件。
条件1402中的字符α是眼睛面积的阈值,用于判断眼睛是否闭合,例如可设置为“1”。字符β是眼睛大小改变的阈值,用于判断眼睛大小是否改变,例如可设置为“5”。
换句话说,特征运动跟踪装置303参考图14中的条件1402,并选择与第i个眼区域信息eye[i]、第i个眼区域中第1个眼睛的面积的变化d1_eye[i]及第2个眼睛的面积的变化d2_eye[i]相对应的眼睛特征运动条件。然后,特征运动跟踪装置303从图14的运动代码1401中获得与所选眼睛特征运动条件相对应的数字,然后确定特征运动代码。
例如,当两眼闭合时,条件为s1_eye[i]≤α,s2_eye[i]≤α,此时特征运动代码为0。
然后,过程进至步骤S406。
在通过检测眨眼来分割手语手势的方法中,步骤S417中的过程修改如下。
[步骤S417a]
分割位置判定装置304根据运动特征1001和分割位置1004(参见图10),求出运动特征中的分割位置。
当适用的运动特征是“眨眼”时,相应于“眨眼”的分割位置是看不见眼区域时的位置。因此,分割位置判定装置304确定相应的帧号。
也就是说,将第2判定代码数据Code_data[2]的代码起始帧号定为分割位置。
然后,过程进至步骤S418。
用这种方式,可以实现通过检测眨眼来分割手语手势的方法。
接下来,描述通过检测嘴形变化(闭嘴)来分割手语手势的方法。
在该情况下,就通过检测眨眼来分割手语手势的方法而描述的S403修改如下。
[步骤S403b]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征601(参见图6)对应的图像。
当检测嘴形变化(闭嘴)时,将身体特征设置为“嘴”,然后身体特征抽取装置302抽取嘴巴,作为被抽取的身体特征。
现在,描述如何抽取嘴巴。
首先,用类似于步骤S403的方式抽取脸区域。其次,用以下方式,从被抽取的脸区域中抽取嘴巴。
在图12中,与步骤S403一样,画脸的上下分割线1205。然后,检测脸区域中位于脸的上下分割线1205以下的洞区域。
当检测到两个或多个洞区域时,将这种的洞区域视为嘴巴,该洞区域离开脸较低端的距离最接近于人嘴平均位置与脸的较低端之间的距离条件,所述条件是一个参数。在本实施例中,将条件设置为“10”。
当检测到一个洞区域时,将该洞区域视为嘴巴。
当没有检测到洞区域时,判定嘴巴闭合。
当用图12举例时,在脸的上下分割线1205以下,只有一个洞区域。所以该洞区域就是嘴巴形成的洞区域1204。
接下来,身体特征抽取装置302生成嘴区域信息。具体地说,将被抽取的嘴的面积及其纵向最大长度设置到第i个嘴区域信息mouth[i]中。
图15例示了由身体特征抽取装置302生成的嘴区域信息。
在图15中,嘴区域信息包括嘴面积1501、及其纵向最大长度1502。
身体特征抽取装置302计算被抽取的嘴的面积,并将计算结果设置在嘴面积1501中。另外,身体特征抽取装置302计算嘴的纵向最大长度,然后将计算得到的长度设置在嘴的纵向最大长度1502中。
然后,过程进至步骤S404。
在通过检测嘴形变化来分割手语手势的方法中,步骤S405中的过程修改如下。
[步骤S405b]
特征运动跟踪装置303参考第i个嘴区域信息mouth[i]和第[i-1]个嘴区域信息mouth[i-1],求嘴巴的特征运动代码。另外,特征运动跟踪装置303参考第i个嘴区域信息mouth[i]的面积s_mouth[i]以及第[i-1]个嘴区域信息mouth[i-1]的面积s_mouth[i-1],用<等式3>求出第i个嘴区域中嘴面积的变化d_mouth[i]。
<等式3>
d_mouth[i]=s_mouth[i]-s_mouth[i-1]
另外,特征运动跟踪装置303参考第i个嘴区域信息mouth[i]的纵向最大长度h_mouth[i]以及第[i-1]个嘴区域信息mouth[i-1]的纵向最大长度h_mouth[i-1],用<等式4>求出第i个嘴区域中嘴的纵向长度变化y_mouth[i]。
<等式4>
y_mouth[i]=h_mouth[i]-h_mouth[i-1]
图16示出了嘴巴的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
在图16中,嘴巴的特征运动条件包括运动代码1601和条件1602。将运动代码1601设为数字“0”和“1”,并将条件1602设置为对应于运动代码1601各数字的嘴巴特征运动条件。
条件1602中的字符γ是嘴面积变化的阈值,用于判断嘴形是否变化,例如在本实施例中,将其设置为“5”。字符λ是嘴的纵向长度变化的阈值,例如可设置为“3”。
具体地说,特征运动跟踪装置303参考图16中的条件1602,然后选择与第i个嘴区域中嘴面积的变化d_mouth[i]以及第第i个嘴区域中嘴长度的纵向最大长度h_mouth[i]相对应的嘴巴特征运动条件。然后,特征运动跟踪装置303从图16的运动代码1601中获得与所选嘴巴特征运动条件相对应的数字,然后确定特征运动代码。
例如,当嘴巴闭合时,条件为s_mouth[i]≤γ,此时的特征运动代码为“0”。
然后,过程进至步骤S406。
在通过检测嘴形变化来分割手语手势的方法中,步骤S417中的过程修改如下。
[步骤S417b]
分割位置判定装置304根据运动特征1001和分割位置1004(参见图10),求出运动特征中的分割位置。
当适用的运动特征是“改变嘴形”时,相应的分割位置是变化的起点和终点。因此,分割位置判定装置304分别求出相应的帧号。
详细地说,分割位置判定装置304输出第2判定代码数据Code_data[2]的代码起始帧号及其代码结束帧号,作为分割位置。
然后,过程进至步骤S418。
用这种方式,可以实现通过检测嘴形变化来分割手语手势的方法。
接下来,描述通过检测手或身体停止运动来分割手语手势的方法。
在该情况下,就通过检测眨眼来分割手语手势的方法而描述的步骤S403中的过程作如下修改。
[步骤S403c]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征601(参见图6)对应的图像。
当检测到手或身体停止运动时,将身体特征601设置为“手区域,身体”,然后身体特征抽取装置302抽取手区域和身体,作为被抽取的身体特征。
现在,描述如何抽取手区域和身体。
首先,用类似于上述步骤S403的方式抽取手区域。也就是说,身体特征抽取装置302从输入图像中抽取肤色区域,然后从被抽取肤色区域中取出不重叠在头区域上的部分,并将该部位视作手区域。
当用图7举例时,从肤色区域中抽取手区域不重叠在头区域上的区域,即手区域703。
关于身体,将步骤S402中抽取的人体区域视为身体。
其次,身体特征抽取装置302生成手区域信息。具体地说,将第i个手区域信息hand[i]设置为被抽取手区域的重心、面积、横向最大长度和纵向最大长度。然后,将第i个身体信息body[i]设置为被抽取身体的重心、面积、横向最大长度和纵向最大长度。
图17例示了由身体特征抽取装置302生成的手区域信息。
在图17中,手区域信息包括手的数目1701、第1只手的重心坐标1702、第1只手的面积1703、第2只手的重心坐标1704、以及第2只手的面积1705。
身体特征抽取装置302首先将被抽取手的数目设置到手的数目1701中,然后用以下方式,根据被抽取手的数目,设置手的重心坐标以及手的面积。
当被抽取手的数目1701为“0”时,将第1只手的重心坐标1702和第2只手的重心坐标1704设置为(0,0),并将第1只手的面积1703和第2只手的面积1704设置为0。
当被抽取手的数目1701为“1”时,计算手区域的重心坐标和面积,以便分别将计算结果设置到第1只手的重心坐标1702和第1只手的面积1703中。然后,将第2只手的重心坐标1704设置为(0,0),并将第2只手的面积设置为0。
当被抽取手的数目1701为“2”时,计算左侧手区域的重心坐标和面积,以便分别将计算结果设置为第1只手的重心坐标1702和第1只手的面积1703。另外,计算右侧手区域的重心坐标和面积,以便分别将计算结果设置为第2只手的重心坐标1704和第2只手的面积1705。
与脸区域信息face[i]一样,可以用图8的结构实现身体信息body[i]。
然后,过程进至步骤S404。
在通过检测手或身体停止运动来分割手语手势的方法中,步骤S405中的过程修改如下。
[步骤S405c]
特征运动跟踪装置303参考第i个手区域信息hand[i]、第[i-1]个手区域信息hand[i-1]、第i个身体信息body[i]和第i-1个身体信息body[i-1],用<等式5>求手区域和身体的特征运动代码。另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的重心g1_hand[i]以及第[i-1]个手区域信息hand[i-1]中第1只手的重心g1_hand[i-1],求出第i个手区域中第1只手的移动量m1_hand[i]。另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第2只手的重心g2_hand[i]以及第[i-1]个手区域信息hand[i-1]中第2只手的重心g2_hand[i-1],求出第i个手区域中第2只手的移动量m2_hand[i]。
<等式5>
另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的面积s1_hand[i]以及第[i-1]个手区域信息hand[i-1]中第1只手的面积s1_hand[i-1],用<等式6>求出第i个手区域中第1只手的面积变化d1_hand[i]。另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第2只手的面积s2_hand[i]以及第[i-1]个手区域信息hand[i-1]中第2只手的面积s2_hand[i-1],求出第i个手区域中第2只手的面积变化d2_hand[i]。
<等式6>
另外,特征运动跟踪装置303参考第i个身体信息body[i]的重心g_body[i]以及第[i-1]个身体信息body[i-1]的重心g_body[i-1],求出第i个身体的移动量m_body[i]。
<等式7>
图18示出了身体和手区域的特征运动条件。
在图18中,身体和手区域的特征运动条件包括运动代码1801和条件1802。将运动代码1801设为数字“0”和“1”,并将条件1802设置为对应于运动代码1801各数字的身体和手区域特征运动条件。
条件1802中的字符χ是一阈值,用于判断手区域是否停止,例如在本实施例中,将其设置为“5”。字符δ是一阈值,用于判断手区域的形状是否改变,例如可设置为“10”。字符ε是一阈值,用于判断身体是否停止,例如可设为“5”。
具体地说,特征运动跟踪装置303参考图18中的条件1802,然后选择与第i个手区域中第1只手的移动量m1_hand[i]、第i个手区域中第2只手的移动量m2_hand[i]、第i个手区域中第1只手的面积变化d1_hand[i]、第i个手区域中第2只手的面积变化d2_hand[i]、以及第i个身体的移动量m_body[i]。然后,特征运动跟踪装置303从图18的运动代码1801中获得与所选手区域和身体的特征运动条件相对应的数字,然后确定特征运动代码。
例如,当手从左到右移动或反向移动时,第i个手区域中的移动量条件为m_hand[i]>χ,此时的特征运动代码为“1”。
然后,过程进至步骤S406。
在通过检测手或身体停止运动来分割手语手势的方法中,步骤S417中的过程修改如下。
[步骤S417c]
分割位置判定装置304根据运动特征1001和分割位置1004(参见图10),求出运动特征中的分割位置。
当适用的运动特征是“停止”时,相应的分割位置是动作的起点和终点,因此分割位置判定装置304分别求出相应的帧号。
另一种方法是,分割位置判定装置304求出对应于其间中间点的帧号。在该情况下,首先确定第1判定代码数据Code_data[1]的代码起始帧号及其代码结束帧号,然后,计算其中间值作为分割位置。
然后,过程进至步骤S418。
用这种方式,可以实现通过检测手或身体停止运动来分割手语手势的方法。
接下来,描述通过检测用手敷面的动作来分割手语手势的方法。
在该情况下,就通过检测点头来分割手语手势的方法而描述的S403(参见图4)作如下修改。
[步骤S403d]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征601(参见图6)对应的图像。
为了检测用手敷面的动作,将身体特征设置为“脸区域,手区域”,并且抽取脸区域和手区域,作为被抽取的身体特征。
现在,描述如何抽取脸区域和手区域。
首先,用类似于步骤S403的方式抽取脸区域,并且用类似于步骤S403c的方式抽取手区域。
接着,将第i个脸区域信息face[i]设置为被抽取脸区域的重心、面积、横向最大长度和纵向最大长度。另外,将第i个手区域信息hand[i]设置为被抽取手区域的重心、面积、横向最大长度和纵向最大长度。
然后,过程进至步骤S404。
在通过检测用手敷面的动作来分割手语手势的方法中,步骤S405中的过程修改如下。
[步骤S405d]
特征运动跟踪装置303参考第i个手区域信息hand[i]和第i个脸区域信息face[i],用<等式8>求手区域和脸区域的特征运动代码。另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的重心g1_hand[i]以及第i个脸区域信息face[i]的重心g_face[i],求出第i个手区域中第1只手与脸之间的距离l1_fh[i]。另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第2只手的重心g2_hand[i]以及第i个脸区域信息face[i]的重心g_face[i-1],求出第i个手区域中第2只手与脸之间的距离l2_fh[i]。
<等式8>
注意,当第i个手区域信息hand[i]中第1只手的面积s1_hand[i]为0时,如果l1_fh[i-1]≤Φ,那么l1_fh[i]=0。如果l1_fh[i-1]>Φ,那么l1_fh[i]=1000。
同样,当第i个手区域信息hand[i]中第2只手的面积s2_hand[i]为0时,如果l2_fh[i-1]≤Φ,那么l2_fh[i]=0。如果l2_fh[i-1]>Φ,那么l2_fh[i]=1000。这里,Φ代表手与脸之间距离的阈值,例如在本实施例中,将其设置为“20”。
图19示出了关于用手敷面之动作的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
在图19中,关于用手敷面之动作的特征运动条件包括运动代码1901和条件1902。用数字“0”和“1”设置运动代码1901,并将条件1902设置为对应于运动代码1901各数字的关于用手敷面之动作的特征运动条件。
条件1902中的字符ω是用手区域接触脸区域的一阈值,例如在本实施例中,将其设置为“5”。
具体地说,特征运动跟踪装置303参考图19中的条件1902,然后选择与第i个手区域中第1只手和脸之间的距离l1_fh[i],以及第i个手区域l2_fh[i]中第2只手和脸之间的距离l2_fh[i]相对应的特征运动条件。然后,特征运动跟踪装置303从图19的运动代码1901中获得与所选特征运动条件相对应的数字,然后确定特征运动代码。
例如,当右手复盖在脸上时,第i个手区域中第1只手与脸之间的距离l1_fh[i]将为0,此时的特征运动代码为“0”。
然后,过程进至步骤S406。
在通过检测用手敷面的动作来分割手语手势的方法中,步骤S417中的过程修改如下。
[步骤S417d]
分割位置判定装置304根据运动特征1001和分割位置1004(参见图10),求出运动特征中的分割位置。
当适用的运动特征是“用手敷面的动作”时,相应的分割位置是“接触的起点和终点”。因此,分割位置判定装置304分别求出与用手敷面动作之起点和终点相应的帧号。
具体地说,将第1判定代码数据Code_data[1]的代码起始帧号及其代码结束帧号视为分割位置。
然后,过程返回步骤S401。
用这种方式,可以实现通过检测用手敷面的动作来分割手语手势的方法。
接下来,描述如何检测手之有效性的变化。
在该情况下,就通过检测点头来分割手语手势的方式而在步骤S403中描述的过程作如下修改。
[步骤S403e]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征601(参见图6)对应的图像。
为了检测手之有效性的变化,将身体特征601设置为“手区域”,并且身体特征抽取装置302抽取手区域,作为被抽取的身体特征。
注意,用类似于步骤S403c的方式抽取手区域。
然后,身体特征抽取装置302用被抽取手区域的重心、面积、横向最大长度和纵向最大长度设置第i个手区域信息hand[i]。
然后,过程进至步骤S404。
在通过检测手之有效性的变化来分割手语手势的方法中,步骤S405中的过程修改如下。
[步骤S405e]
特征运动跟踪装置303参考第i个手区域信息hand[i],用<等式5>求关于手之有效性和运动的特征运动代码。
另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的重心g1_hand[i],确定第1只手属于步骤S402(参见图5)中空间分割获得的几个区域中的哪一个区域,求出其区域代码,然后将其设置到第1只手的手区域空间代码sp1_hand[i]中。注意,当第i个手区域信息hand[i]中第1只手的面积s1_hand[i]为0时,将第1只手的手区域空间代码sp1_hand[i]设置为“6”。
另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第2只手的重心g2_hand[i],求区域代码,以便将其设置到第2只手的手区域空间代码sp2_hand[i]中。当第i个手区域信息hand[i]中第2只手的面积s2_hand[i]为0时,将第2只手的手区域空间代码sp2_hand[i]设置为“6”。
另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的重心g1_hand[i]以及第i-1个手区域信息hand[i-1]中第1只手的重心g1_hand[i-1],求第i个手区域中第1只手的移动量m1_hand[i]。
另外,特征运动跟踪装置303参考第i个手区域信息hand[i]中第2只手的重心g2_hand[i]以及第i-1个手区域信息hand[i-1]中第2只手的重心g2_hand[i-1],求第i个手区域中第1只手的移动量m2_hand[i]。
图20示出了关于手之有效性变化的特征运动条件,供特征运动跟踪装置303确定特征运动代码。
在图20中,关于手之有效性变化的特征运动条件包括运动代码2001和条件2002。将运动代码2001设置为数字“0”到“5”,并将条件2002设置为对应于运动代码2001各数字的关于用手敷面之动作的特征运动条件。
条件2002中的字符χ是一阈值,用于判断手区域是否停止,例如在本实施例中,将其设置为“5”。
详细地说,特征运动跟踪装置303参考图20中的条件2002,然后选择与第i个手区域中第1只手的手区域空间代码sp1_hand[i]、第i个手区域中第1只手的移动量m1_hand[i]、第i个手区域中第2只手的手区域空间代码sp2_hand[i]、以及第i个手区域中第2只手的移动量m2_hand[i]相对应的关于用手敷面之动作的特征运动条件。
例如,当右手正在移动,而左手降低到输入图像501的最低位置(参见图5)时,第i个手区域中第1只手的移动量m1_hand[i]的条件是m1_hand[i]>χ,第i个手区域中第2只手的手区域空间代码sp2_hand[i]为7,此时的特征运动代码为“2”。
然后,过程进至步骤S406。
在通过检测手之有效性变化来分割手语手势的方法中,步骤S417中的过程修改如下。
[步骤S417e]
分割位置判定装置304根据运动特征1001和分割位置1004(参见图10),求出运动特征中的分割位置。
当适用的运动特征是“改变手之有效性的点”时,相应的分割位置是“代码改变点”,由此分割位置判定装置304求出相应相应的帧号。
具体地说,将第1判定代码数据Code_data[1]的代码起始帧号及其代码结束帧号视为分割位置。
然后,过程进至步骤S418。
用这种方式,可以实现通过检测手之有效性变化来分割手语手势的方法。
下面,描述通过对上述动作的组合进行检测来分割手语手势的方法。
在该方法中,就通过检测点头(参见图4)来分割手语手势的方法而在步骤S403中描述的过程作如下修改。
[步骤S403f]
身体特征抽取装置302从输入图像中抽取与存储在分割元素存储装置305中的身体特征601(参见图6)对应的图像。
为了检测上述各个动作,将身体特征601设置为“脸区域”,“眼睛”、“嘴”、“手区域,身体”、“手区域,脸区域”以及“手区域”,并且身体特征抽取装置302抽取脸区域、眼睛、嘴、以及手区域和身体,作为被抽取的身体特征。
注意,用类似于步骤S403的方式抽取脸区域。用类似于步骤S403a的方式抽取眼睛。用类似于步骤S403b的方式抽取嘴巴。用类似于步骤S403c的方式抽取手区域和身体。
接着,身体特征抽取装置302分别将关于被抽取脸区域、眼睛、嘴巴、手区域和身体的信息设置到脸区域信息face[i]、眼区域信息eye[i]、嘴区域信息mouth[i]、手区域信息hand[i]和身体信息body[i]中。
然后,过程进至步骤S404。
然后,手语手势分割设备执行步骤S405至S417的过程。然后步骤S405b至S417b。然后,手语手势分割设备连续执行步骤S405c至S417c、步骤S405d至S417d、以及步骤S405e至S417d的过程。
用这种方式,可以实现通过检测上述动作的组合来分割手语手势的方法。
接下来,描述在分割之前考虑每个被检测手势之持续时间的分割手语手势的方法。
图21是一流程图,示出了在通过检测点头来分割手语手势的方法(参照图4)中,如何在考虑每个被检测手势的持续时间的同时进行分割。
图21所示的方法类似于图4中的方法,除了用下述方式修改步骤S411,并增加步骤S2101。
[步骤S411a]
首先,判断判定代码1002包括的代码数目是否为j或更大。如果是,则过程进至步骤S412。
当数目为(j-1)时,过程进至步骤S2101。
[步骤S2101]
首先,将位于第1判定代码数据Code_data[1]之代码起始号和第j-1个判定代码数据Code_data[j-1]之代码结束帧号之间的帧号设置到特征持续时间中。
然后,判断是否在运动特征参数(参见图10)包括的时间1003里设置了值,然后判断特征持续时间是否小于时间1003中设置的值,
如果对时间1003设置了值,并且如果特征持续时间小于时间1003中设置的值,那么过程进至步骤S417。
用这种方式,可以实现考虑每个被检测手势之持续时间的手语手势分割方法。
下面,描述检测非分割元素和分割元素的手语手势分割方法。
(第三实施例)
图22是一方框图,示出了依照本发明第三实施例的手语手势分割装置的结构。
与图3设备相比,图22中的设备增加了非分割元素存储装置2201。非分割元素存储装置2201包括预先存储的非分割元素,该元素是非分割的条件。该设备中的其它部件与图3设备中的相同。
具体地说,图22中的设备执行这样的手语手势分割方法,在该方法中,检测非分割元素和分割元素,并据此分割手语手势。
下面,描述如何操作用上述方式构造的手语手势分割设备去执行处理。
首先,描述检测双手合拢的动作,将其作为非分割元素的情况。
图23和图24是两张流程图,例示了如何操作图22所示的手语手势分割设备。
图23和24所示的方法类似于图21中的方法,除了在步骤S403后增加了步骤S2401,在步骤S405后增加了步骤S2402到S2405,并用类似的方式将步骤S418修改为步骤S418a。
下面,分别就这些步骤(S2401至S2405,以及S418a)作详细描述。
[步骤S2401]
身体特征抽取装置302从输入图像中抽取与存储在非分割元素存储装置2201中的身体特征相对应的图像。
图25例示了存储在非分割元素存储装置2201中的非分割元素数据。
在图25中,非分割元素数据包括身体特征2501和非分割运动特征2502。
例如,为了检测双手合拢动作,先将“手区域”设置到身体特征2501中。
身体特征抽取装置302抽取手区域,作为非分割身体特征。可以按步骤S403c中的过程抽取手区域。
然后,过程进至步骤S404。
[步骤S2402]
按以下过程确定非分割特征运动代码。
当第i个手区域信息hand[i]的手数目为2时,特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的重心g1_hand[i]以及第2只手的重心g2_hand[i],用<等式9>求出第i个手区域中双手之间的距离l_hand[i]。
<等式9>
然后,特征运动跟踪装置303参考第i个手区域中双手之间的距离l_hand[i]以及第i-1个手区域中双手之间的距离l_hand[i-1],用<等式10>求出双手之间距离的变化dl_hand[i]。
<等式10>
d_hand[i]=l_hand[i]-l_hand[i-1]
当第i个手区域信息hand[i]的手数目不为2时,或者当当第i个手区域信息hand[i]的手数目与当第i-1个手区域信息hand[i-1]的手数目不同时,分割位置判定装置304将双手间距离的变化dl_hand[i]设置为非负数,例如1000。
当双手间距离的变化dl_hand[i]为dl_hand[i]≤-θ时,非分割特征运动代码为“1”。当当双手间距离的变化dl_hand[i]为dl_hand[i]>-θ时,非分割特征运动代码为“0”。这里,θ代表双手间距离变化的阈值,例如在本实施例中,被设置为“5”。
当非分割代码数k未赋值时,将非分割代码k设置为“1”,并将非分割特征帧的数目设置为“0”。
在本例中,非分割代码数k表示构成非分割特征运动代码的代码数,而非分割特征帧的数目表示与非分割运动特征的检测持续时间相对应的帧数,即在开始检测与结束检测之间的帧的数目。
然后,过程进至步骤S3003。
[步骤S2403]
分割位置判定装置304参考存储在非分割元素存储装置2201中的非分割元素数据(参见图25),并检查非分割特征运动代码是否与非分割运动特征2502一致。用一个表示运动特征的参数(即,非分割运动特征参数)设置非分割运动特征2502,用于确认不分割(非分割运动特征)。
图26例示了将在非分割运动特征2502中设置的非分割运动特征参数。
在图26中,非分割运动特征参数包括非分割运动特征2601、判定代码2602,以及时间2603。非分割运动特征2601表示非分割运动特征的类型。判定代码2602是一代码串,用作判断非分割运动特征的条件。时间2603是用来判断非分割运动特征的时间条件。
判定代码2602的描述方式类似于图10中运动特征参数所包括的判定代码1002。时间2603被设置为非分割运动特征2601的最小持续时间。
当判定代码2602与步骤S2402中确定的非分割特征运动代码的第k个代码(即,构成非分割特征运动代码的最后一个代码)不同时,过程进至步骤S2404。
当相同时,过程进至步骤S2405。
[步骤S2404]
首先,将非分割特征帧的数目设置为“0”,然后将非分割代码数k设置为“1”。
然后,过程进至步骤S406。
[步骤S2405]
将非分割特征帧的数目增加1。
当k>2时,如果关于非分割确认代码串的条件的第(k-1)个代码不同于非分割特征运动代码时,将k增加1。
然后,过程进至步骤S406。
[步骤S418a]
当不对非分割运动特征参数(参见图26)所包含的时间2603赋值时,将非分割时间的最小值设置为0。
当对时间2603赋值时,将非分割时间的最小值设置为时间2603的值。
当非分割特征帧数小于相当于非分割时间最小值的帧数时,输出步骤S417中设置的位置。
然后,过程返回步骤S401。
用这种方式,可以实现这样的手语手势分割方法,在该方法中检测非分割元素(双手合拢)和分割元素,并据此分割手语手势。
接下来,描述将嘴形变化检测为非分割元素的情况。
在该情况下,步骤S2401中的过程修改如下。
[步骤S2401a]
身体特征抽取装置302从输入图像中抽取与存储在非分割元素存储装置2201中的身体特征相对应的图像。
在图25中,当检测嘴形变化时,先将“嘴巴”设置到身体特征2501中。
身体特征抽取装置302抽取嘴巴,作为非分割身体特征。可以用类似于步骤S403b的方式抽取嘴巴。
然后,过程进至步骤S404。
另外,步骤S2402中的过程修改如下。
[步骤S2402a]
按以下过程确定非分割特征运动代码。
特征运动跟踪装置303首先用类似于步骤S405b的方式,求第i个嘴区域信息中嘴区域的面积变化d_mouth[i]以及第i个嘴区域信息中嘴长度的纵向变化y_mouth[i]。
然后,特征运动跟踪装置303参考图16中的条件1602,然后选择与第i个嘴区域信息中嘴区域的面积变化d_mouth[i]以及第i个嘴区域信息中嘴长度的纵向变化y_mouth[i]相对应的特征运动条件。然后,特征运动跟踪装置303从图16的运动代码1601中获得与所选特征运动条件相对应的数字,然后确定非分割特征运动代码。
例如,当嘴巴不动时,嘴的面积及其纵向最大长度不会有变化。此时,非分割特征运动代码为“0”。
当非分割代码数k未赋值时,将非分割代码k设置为“1”,并将非分割特征帧的数目设置为“0”。
然后,过程进至步骤S2403。
用这种方法,可以实现根据非分割元素(改变嘴形)和分割元素的检测结果来分割手语手势的方法。
接下来,描述将手势的对称性检测为非分割元素的情况。
在该情况下,步骤S2402中的过程修改如下。
[步骤S2402b]
按以下过程确定非分割特征运动代码。
特征运动跟踪装置303首先判断第i个手区域信息hand[i]中手的数目是否为1或更少。如果数目小于1,则将非分割特征运动代码设置为0。
然后,过程进至步骤S2403。
当第i个手区信息hand[i]的手数目为2,那么特征运动跟踪装置303参考第i个手区域信息hand[i]中第1只手的重心g1_hand[i]、其第2只手的重心g2_hand[i]、第i-1个手区域信息hand[i-1]中第1只手的重心g1_hand[i-1]及其第2只手的重心g2_hand[i],用<等式11>求第i个手区域中第1只手的移动矢量vh[1][i]和第2只手的移动矢量vh[2][i]。
<等式11>
接着,特征运动跟踪装置303用<等式12>求第i个手区域中第1只手的移动量dvh[1][i]和第i个手区域中第2只手的移动量dvh[2][i]。
<等式12>
图27示出了关于手语手势对称性的非分割特征运动条件,供特征运动跟踪装置303确定特征运动代码。
在图27中,关于手语手势对称性的非分割特征运动条件包括运动代码2701和条件2702。将运动代码2701设置为数字“0”至“8”,并将条件2702设置为与运动代码2701的各数字相对应的关于手语手势对称性的非分割特征运动条件。
然后,特征运动跟踪装置303参考图27中关于手语手势对称性的非分割特征运动条件,求第i个手区域中第1只手的运动代码Ch[1][i]和第2只手的运动代码Ch[2][i]。
当非分割特征帧数为“0”时,将第1非分割条件的起点Psh[1]设置为第(i-1)个手区域信息hand[i-1]中第1只手的重心g1_hand[i-1],而将第2非分割条件的起点Psh[2]设置为第(i-1)个手区域信息hand[i-1]中第2只手的重心g2_hand[i-1]。
这里,非分割元素存储装置2201包括预先存储的关于手语手势对称性的非分割代码条件。
图28例示了存储在非分割元素存储装置2201中的关于手语手势对称性的非分割代码条件。
对于图28中的非分割代码条件,将手语识别设备(未示出)可识别的任何动作(手语手势)中的对称性设置为用数字1到10表示的条件。
例如,对于手语手势,手通常相对身体的竖直面或水平面,彼此对称地运动。应该注意,可以在设备可识别的无意义手区域中,设置这些条件。
然后,分割位置判定装置304参考第1非分割条件的起点Psh[1]=(Xps1,Yps1)、第2分割条件的起点Psh[2]=(Xps2,Yps2)、第i个手区域中第1只手的运动代码Ch[1][i],以及第i个手区域中第2只手的运动代码Ch[2][i],然后判断第i个手区域中第1只手的关于手语手语对称性的特征运动代码(即,第i个手区域中第1只手的运动代码Ch[1][i],和第i个手区域中第2只手的运动代码Ch[2][i],)是否与图28(任何在1至10的条件)中的条件一致。如果一致,那么将非分割特征代码设置为1。如果不一致,那么将非分割特征代码设置为0。
然后,过程进至步骤S2403。
用这种方式,可以实现这样的手语手势分割方法,在该方法中,检测非分割元素(手势对称性)和分割元素,并据此分割手语手势。
但是,在上述分割方法中,对讲话者的动作进行二维摄取,以检测其手势的对称性。因此,在该方法中,可检测的对称性局限于二维。
因此,下面将描述对讲话者的动作进行立体摄取,以检测其手势之三维对称性的方法。
在图22中,图像输入装置301包括两架摄像机,并且输入三维图像。在该方法中,对讲话者的动作进行立体摄像。
在该情况下,用类似于图23和24的方式操作图22中的设备,除了在以下几个方面有修改。
详细地说,在图23的步骤S403中,身体特征抽取装置302从来自两架摄像机的三维输入图像中抽取身体特征(在本例中,为手区域)的图像。
为了从三维图像中抽取手区域,与从二维图像中抽取手区域的情况一样,可以根据RGB颜色信息检测肤色区域。但是,在该情况下,将构成三维图像的每个象素的RGB颜色信息描述为RGB颜色信息中的三维坐标的函数。
另一种方法是,使用“用模糊图形匹配从彩色图像中检测脸的系统”中描述的方法,文章作者是Go,Chin和Taniuchida,由电子信息通信协会出版,刊登在D-II Vol.J80-D-II No.7 pp.1774-1785,1997.7。
在检测手区域之后,身体特征抽取装置302求出第i个手区域中第1只手的三维坐标h[1][i],和第i个手区域中第2只手的三维坐标h[2][i]。
为了获得从两架摄像机输入的三维图像中抽取的手区域的三维坐标,可以使用来自一架摄像机的二维图像与来自另一架摄像机的二维图像之间的视差。
另外,步骤S2402b中的过程修改如下。
[步骤S2402c]
该步骤中的过程类似于步骤S2402b。这里,使用从任一架摄像机(例如,左侧的摄像机)输入的图像而计算得到的手区域的信息。
注意,特征运动跟踪装置303用<等式13>求第i个手区域中第1只手的三维矢量vth[1][i]和第2只手的三维矢量vgh[2][i]。
<等式13>
当非分割特征帧数小于3时,过程进至步骤S2403。
用这种方式,可以检测手势的三维对称性。
接下来,描述如何根据非分割元素(手势的对称性)和分割元素的检测结果,用上述手语手势分割方法,来检测手势的对称性变化。
通过捕获动作平面内的变化,可以检测动作对称性的变化。这里,动作平面是指包括动作轨迹的平面。
例如,手的动作平面是包括手势形成的轨迹的平面。当在右手或左手动作平面中观察到变化时,认为动作的对称性发生了变化。
例如,为了检测动作平面内的变化,可以检测动作平面法线矢量的变化。
因此,现在描述如何用动作平面法线矢量的变化来检测动作平面的变化。
为了用动作平面法线矢量的变化来检测动作平面的变化,可以将步骤S2402中的过程修改如下。
[步骤S2402d]
特征运动跟踪装置303利用<等式14>,参考第i个手区域中第1只手的三维矢量vth[1][i]以及第i-1个手区域中第1只手的三维矢量vth[1][i-1],求第i个手区域中第1只手的移动平面的法线矢量vch[1][i],并且参考第i个手区域中第2只手的三维矢量vth[2][i]以及第i-1个手区域中第2只手的三维矢量vth[2][i-1],求第i个手区域中第2只手的移动平面的法线矢量vch[2][i]。
<等式14>
另外,特征运动跟踪装置303利用<等式15>,参考第i个手区域中第1只手的移动平面法线矢量vch[1][i]以及第i-1个手区域中第1只手的移动平面法线矢量vch[1][i-1],求第i个手区域中第1只手的移动余弦cosΘh[1][i],并且参考第i个手区域中第2只手的移动平面法线矢量vch[2][i]以及第i-1个手区域中第2只手的移动平面法线矢量vch[2][i-1],求第i个手区域中第2只手的移动余弦cosΘh[2][i]。
<等式15>
当第i个手区域中第1只手的移动余弦cosΘh[1][i]和第2只手的移动余弦cosΘh[2][i]不满足<等式16>中的任何一个条件时,将非分割特征代码设置为0。这里,α_vc是法线矢量变化的阈值,例如可设置为0.1。
<等式16>
然后,过程进至步骤S2403。
按这种方式,利用动作平面法线矢量的变化,可以检测动作平面的变化。
除了上述方法,还可以用动作代码矢量来检测动作平面的变化。
因此,现在描述如何用动作代码矢量来检测动作平面的变化。
为了用动作代码矢量来检测动作平面的变化,将步骤S2402中的过程修改如下。
[步骤S2402e]
特征运动跟踪装置303参考第i个手区域中第1只手的三维坐标h1[i]以及第i-1个手区域中第1只手的三维坐标h1[i-1],求第i个手区域中第1只手的三维运动代码Code_h1[i],并且参考第i个手区域中第2只手的三维坐标h2[i]以及第i-1个手区域中第2只手的三维坐标h2[i-1],求第i个手区域中第2只手的三维运动代码Code_h2[i]。
这里,在日本专利公开第7-282235号“动作识别设备”中,揭示了一种计算三维运动代码的方法。在该方法中,用27个代码(从0至26)来表示手区域中的运动。这27个代码分别对应于方向改变的三维矢量。
另一方面,非分割元素存储装置2201包括预先存储的相同动作平面表。
图29例示了存储在非分割元素存储装置2201中的相同动作平面表。
在图29中,相同动作平面表包括9个相同动作平面(动作平面号“1”至“9”)。用类似上述代码的方式,用27个代码分别表示相同动作平面。
特征运动跟踪装置303根据第i个手区域中第1只手的三维坐标h1[i],从图29的表中抽取包含第i个手区域中第1只手的动作平面号和包含第I个手区域中第2只手的动作平面号。
当第1只手的可能动作平面MOVE_plane1没有设置时。将被抽取的第1只手所包括的所有动作平面号设置到第1只手的可能动作平面MOVE_plane1中,并将将被抽取的第2只手所包括的所有动作平面号设置到第2只手的第2可能动作平面MOVE_plane2中。然后,过程进至步骤S2403。
接着,特征运动跟踪装置303判断被抽取第1只手的动作平面号是否与Move_plane1中设置的动作平面号一致,并判断被抽取第2只手的动作平面号是否与Move_plane2中设置的动作平面号一致。
当判定被抽取第1只手区域中没有动作平面号与Move_plane1中设置的动作平面号一致时,或者当被抽取第2只手区域中没有动作平面号与Move_plane2中设置的动作平面号一致时,特征运动跟踪装置303删除Move_plane1或Move_plane2中设置的每个动作平面号,然后将0设置到非分割特征代码中。然后,过程进至步骤S2403。
当被抽取第1只手区域中有动作平面号与Move_plane1中设置的动作平面号一致时,特征运动跟踪装置303只将一致的号码设置到Move_plane1中,并从中删除其余的号码。
当被抽取第2只手区域中有动作平面号与Move_plane2中设置的动作平面号一致时,特征运动跟踪装置303只将一致的号码设置到Move_plane2中,并且只要将一个或多个动作平面号设置为第2只手的可能动作平面Move-plane2,就从中删除其余的号码。然后,过程进至步骤S2403。
用这种方式,利用动作代码矢量,可以检测动作平面的变化。
接下来,描述分割元素诱导设备,该设备附加到手语识别设备(未示出)和图3或22的手语手势分割设备中,用于诱导用户做出手语手势分割设置可识别的过渡动作,以便用显示器上的动画进行分割。
(第四实施例)
图30是一方框图,示出了依照本发明第四实施例的分割元素诱导装置的结构。
图30中的分割元素诱导设备附加到手语识别设备(未示出)和图3或22的手语手势分割设备中。
在图30中,分割元素诱导设备包括识别结果输入装置3001、分割结果输入装置3002、诱导控制信息生成装置3003、输出装置3004和诱导规则存储装置3005。
识别结果输入装置3001从与其相连的手语识别设备接收当前识别状态信息。分割结果输入装置3002从与其相连的手语手势分割设备接收当前分割状态信息。
识别结果输入装置3001将输入的识别状态信息传递给诱导控制信息生成装置3003。分割结果输入装置3002将输入的分割状态信息传递给诱导控制信息生成装置3003。诱导控制信息生成装置3003通过参考识别状态信息和分割状态信息,并用存储在诱导规则存储装置3005中的诱导规则,生成诱导控制信息,然后将生成的诱导控制信息传递给输出装置3004。输出装置3004将诱导控制信息输出给与其相连的设备,诸如手语动画设备(未示出)。
下面,将描述如何操作用上述方式构造的分割元素诱导设备。
图31是一流程图,示出了如何操作图30中的分割元素诱导装置程。
下面,分别详细描述图31中的步骤。
[步骤S3101]
识别结果输入装置3001检查从与其相连的手语识别设备输入的识别状态信息。
图32例示了输入到识别结果输入装置3001中的识别状态信息。
在图32中,识别状态信息包括帧号3201和状态标志3202。将一当前帧(即,当手语识别设备正在生成识别状态信息时,正在进行的帧的帧号)设置到帧号3201中,
如果识别成功,则将状态标志3202设置为0,如果失败,则设置为1。
在输入识别状态信息之后,识别结果输入装置3001将信息传递给诱导控制信息生成装置3003。
然后,过程进至步骤S3102。
[步骤S3102]
分割结果输入装置3002检查由手语手势分割设备输入的分割状态信息。
图33例示了输入到分割结果输入装置3002中的分割状态信息。
在图33中,分割状态信息包括帧号3301和未分割帧的数目3302。在帧号3301中,设置一当前帧,即当手语手势分割设备正在生成分割状态信息时,正在进行的帧的帧号。在未分割帧的数目3302中,设置从最后分割帧到当前帧的帧的数目。
在输入分割状态信息后,分割结果输入装置3002将分割信息传递给诱导控制信息生成装置3003。
然后,过程进至步骤S3103。
[步骤S3103]
诱导控制信息生成装置3003用存储在诱导规则存储装置3005中的诱导规则,生成诱导控制信息。
图34例示了由诱导控制信息生成装置3003生成的诱导控制信息。
在图34中,诱导控制信息包括身体控制部位的数目3401、身体控制部位3402和控制动作3403。在身体控制部位的数目3401中,设置将按CG特性(动画)控制的身体部位数目。在控制部位3402中,设置将按CG特性控制的身体部位。注意,对控制部位3402和控制动作3403设置的次数等于控制部位数目3401中设置的部位数目。
接着,诱导控制信息生成装置3003根据当前输入的识别状态信息和分割状态信息,从诱导规则存储装置3005中抽取诱导规则。
图35例示了存储在诱导规则存储装置3005中的诱导规则。
在图35中,诱导规则包括识别状态3501、未分割帧的数目3502、控制部位3503和控制动作3504。
例如,当正在输入图32中的识别状态信息和图33中的分割状态信息时,识别状态和分割状态与图35第2列中的条件、识别状态3501以及未分割帧的数目一致。因此,对于图34中的诱导控制信息,将控制部位的数目3401设置为“1”,将控制部位3402设置为“头”,并将控制动作3403设置为“点头”。
将用这种方式生成的诱导控制信息传递给输出装置3004。
然后,过程进至步骤S3104。
[步骤S3104]
输出装置3004将诱导控制信息生成装置3003传递的诱导控制信息输出到例如动画生成设置中。此时,如果必要,输出装置3004将诱导控制信息转换成动画生成设备所要求的格式。
然后,过程进至步骤S3101。
用这种方式,可以实现诱导分割元素的方法。
接下来,关于这种诱导分割元素的方法,现在描述根据手语手势的识别率来改变动画速度的情况。
具体地说,将手语识别设备中获得的手语手势识别率提供给分割元素诱导设备。分割元素诱导设备具有动画速度调节设备,当识别率较低时,调节设备调低显示器上的动画速度,然后诱导用户做出更慢的过渡动作。
图36是一方框图,示出了为图30中分割元素诱导装置提供的动画速度调节装置的结构。
在图36中,动画速度调节设备包括识别结果输入装置3601、分割结果输入装置3602、速度调节信息生成装置3603、速度调节规则存储装置3604,和输出装置3605。
识别结果输入装置3601从手语识别设备(未示出)接收识别结果信息。分割结果输入装置3602从图3或22中的手语手势分割设备接收分割结果信息。速度调节规则存储装置3604包括预先存储的速度调节规则。速度调节信息生成装置3603生成控制信息(动画速度调节信息),用于至少根据识别结果信息,但最好根据识别结果信息和分割结果信息,同时参考速度调节规则,来控制动画速度。
在本例中,描述下述情况,即速度调节信息生成装置3603根据识别结果信息,生成动画速度调节信息。
在包含用上述方式构造的动画速度调节设备的分割元素诱导设备中,用类似于图31的方式,执行过程,除了下述方面有所不同。
将图31中步骤S3103中的过程修改如下。
[步骤S3103a]
当错误识别标志FLAG_rec没有设置时,速度调节信息生成装置3603设置0。当识别结果信息包含的状态标志为1时,将错误识别标志FLAG_rec增1。当状态标志为0,且错误识别标志FLAG>0时,将错误识别标志FLAG_rec减1。
图37例示了存储在速度调节规则存储装置3604中的速度调节规则。
在图37中,速度调节规则包括速度调节量3701和条件3702。条件3702是用来确定速度调节量的条件。这里,条件3702中的d_spd是速度调节参数,例如可以设置为50。
速度调节信息生成装置3603参考存储在速度调节规则存储装置3604中的速度调节规则,求出适于错误识别标志FLAG_rec的速度调节量d_spd。
将用这种方式获得的速度调节量传递给输出装置3605。
注意,用类似于步骤S3103的方式执行不同于上述的过程,这里不再描述。
另外,将步骤S3104中的过程修改如下。
[步骤S3104a]
输出装置3605将速度调节量d_spd传递给动画生成设备(未示出)。动画生成设备调节动画速度,使默认的动画速度Spd_def降低大约速度调节量d_spd。
用这种方式,当手语手势的识别率较低时,可以降低显示器上的动画速度,从而诱导用户更慢地做过渡动作。
接下来,在以下描述情况下,提供一摄像机隐藏装置,以便在上述分割元素诱导设备中,从用户视线中隐藏掉摄像机(参见图22,注意,是否提供动画速度调节设备没有区别)。
当摄像机暴露时,讲话者做手势时,会不自然和紧张。因此,不能准确进行分割,会降低手语识别设备的识别率。
图38是一示意图,例示了为图22中分割元素诱导装置提供的摄像机隐藏装置的结构。
在图38中,将摄像机3802放在讲话者3801的对面,并且将一面向上的监视器3803放在垂直位置低于摄像机3802与讲话者3801之间直线的位置上。
摄像隐藏装置包括一半反射镜3804,它允许来自前方的光通过,但反射来自后方的光。该摄像隐藏装置可以用以下方式实现,即,将半反射镜3804放在讲话者3801与摄像机3802之间的直线上,位于监视器3802的上方,相对直线成45度角。
利用该结构,来自监视器3803的光首先被半反射镜3804反射,然后到达讲话者3801。因此,计算者3801可以看见监视器3803(监视器上显示动画)。
允许从讲话者3801到摄像机3802的光通过半反射镜3804,而从摄像机3802到讲话者3801的光则被半反射镜反射。因此,即使从讲话者的视角看不见摄像机,该结构也允许摄像机3802对讲话者3801进行拍摄。
利用这种摄像隐藏装置,讲话者看不见摄机。
尽管已详细描述了本发明,但以上描述都是说明性的,不是限制性的。应该理解,不脱离本发明的范围,可以进行各种改变和变化。
Claims (22)
1.一种手势分割方法,用于当识别用户手势时,将用户手势自动分割成单词或由多个单词构成的可理解单元,其特征在于,所述方法包括以下步骤:
预先存储包含过渡动作之特征的过渡特征数据,在表示单词的动作期间,不会在用户身体上观察到所述过渡动作,但从一个动作过渡到另一个动作时,可以观察到所述过渡动作;
对用户摄像,并且存储其图像数据;
从所述图像数据中抽取与观察到所述过渡动作的身体部分对应的图像;
检测与观察到所述过渡动作的身体部分对应的图像的运动;并
通过比较所述图像的运动和所述过渡特征数据,然后求出观察到所述过渡动作的时间位置,来分割所述手势,其中所述图像与观察到所述过渡动作的身体部分相对应。
2.如权利要求1所述的手势分割方法,其特征在于,所述过渡动作包括眨眼。
3.如权利要求1所述的手势分割方法,其特征在于,所述过渡动作包括点头。
4.如权利要求1所述的手势分割方法,其特征在于,所述过渡动作包括闭嘴。
5.如权利要求1所述的手势分割方法,其特征在于,所述过渡动作包括停止手的运动。
6.如权利要求1所述的手势分割方法,其特征在于,所述过渡动作包括停止身体的运动。
7.如权利要求1所述的手势分割方法,其特征在于,所述过渡动作包括用手敷面。
8.如权利要求1所述的手势分割方法,其特征在于,还包括在用户周围设置无意义手区域的步骤,即使在该区域中观察到用户的手,也认为手势无效,其中
所述过渡动作包括手进出所述无意义手区域。
9.如权利要求1所述的手势分割方法,其特征在于,在分割所述手势的步骤中,测量所述过渡手势的持续时间,然后根据所述持续时间,对手势进行分割。
10.如权利要求1所述的手势分割方法,其特征在于,还包括以下步骤:
预先存储包含非过渡动作之特征的非过渡特征数据,从表示一个单词的动作过渡到另一个时,不能在用户身体上观察到所述非过渡动作,但在表示一个单词的动作期间,可以观察到所述非过渡动作;
从所述图像数据中抽取与观察到所述非过渡动作的身体部分对应的图像;
检测与观察到所述非过渡动作的身体部分对应的图像的运动;并
将所述图像的运动与所述非过渡特征数据进行比较,求出观察到所述非过渡动作的时间位置,其中所述图像与观察到所述非过渡动作的身体部分相对应,并且
在分割所述手势的步骤中,不在观察到所述非过渡动作的时间位置处分割所述手势。
11.如权利要求10所述的手势分割方法,其特征在于,所述非过渡动作包括使手彼此合拢,手的间距小于一预值。
12.如权利要求10所述的手势分割方法,其特征在于,所述非过渡动作包括改变嘴形。
13.如权利要求10所述的手势分割方法,其特征在于,所述非过渡动作包括对称于左手移动右手的运动,以及反之移动左手的运动。
14.如权利要求13所述的手势分割方法,其特征在于,在对所述用户摄像并存储其图像数据的所述步骤中,对用户进行立体摄像,并存储其三维图像数据;
在所述抽取步骤中,从所述三维图像数据中抽取与观察到所述非过渡动作的身体部分相对应的三维图像;
在所述检测步骤中,检测所述三维图像的运动;以及
在求时间位置的所述步骤中,
根据所述三维图像的运动,检测在右手动作平面和左手动作平面内的变化;并且
当两个动作平面都不改变时,判定观察到非过渡动作,然后求其时间位置。
15.如权利要求14所述的手势分割方法,其特征在于,在求时间位置的所述步骤中,根据动作平面法线矢量的变化,检测右手动作平面和左手动作平面内的变化。
16.如权利要求14所述的手势分割方法,其特征在于,对于与改变方向的三维矢量相对应的多个三维动作代码,还包括预先生成单一运动平面表的步骤,在所述单一运动平面表中,包括在单一平面内求得的三维运动代码的组合;和
将所述三维图像的运动转换成由所述多个三维运动代码表示的三维运动代码串的步骤,其中
在求时间位置的所述步骤中,根据所述单一运动平面表,检测右手动作平面和左手动作平面内的变化。
17.如权利要求1所述的手势分割方法,其特征在于,还包括以下步骤:
预先存储表示所述过渡动作的动画的图像数据;
检测所述非过渡动作的检测状态和所述手势的识别状态;并且
就所述过渡动作的检测状态和所述手势的识别状态,向用户视觉显示表示所述过渡动作的动画。
18.如权利要求17所述的手势分割方法,其特征在于,在所述显示动画步骤中,根据所述手势的识别状态,改变动画的速度。
19.一种手势分割设备,用于当识别用户手势时,将用户手势自动分割成单词或由多个单词构成的可理解单元,其特征在于,所述设备包括;
用于存储包含过渡动作之特征的过渡特征数据的装置,在表示单词的动作期间,不会在用户身体上观察到所述过渡动作,但从一个动作过渡到另一个动作时,可以观察到所述过渡动作;
用于对用户摄像并存储其图像数据的装置;
用于从所述图像数据中抽取与观察到所述过渡动作的身体部分对应的图像的装置;
用于检测与观察到所述过渡动作的身体部分对应的图像之运动的装置;以及
通过比较所述图像的运动和所述过渡特征数据,然后求出观察到所述过渡动作的时间位置,来分割所述手势的装置,其中所述图像与观察到所述过渡动作的身体部分相对应。
20.如权利要求19所述的手势分割设备,其特征在于,还包括:
用于存储包含非过渡动作之特征的非过渡特征数据的装置,从表示一个单词的动作过渡到另一个时,不能在用户身体上观察到所述非过渡动作,但在表示一个单词的动作期间,可以观察到所述非过渡动作;
用于从所述图像数据中抽取与观察到所述非过渡动作的身体部分对应的图像的装置;
用于检测与观察到所述非过渡动作的身体部分对应的图像之运动的装置;并
用于将所述图像的运动与所述非过渡特征数据进行比较,求出观察到所述非过渡动作的时间位置的装置,其中所述图像与观察到所述非过渡动作的身体部分相对应,并且
用于分割所述手势的所述装置不对观察到所述非过渡动作的时间位置处的手势进行分割。
21.一种手势分割设备,用于当识别用户手势时,将用户手势自动分割成单词或由多个单词构成的可理解单元,其特征在于,所述设备包括:
用于存储包含过渡动作之特征的过渡特征数据的装置,在表示单词的动作期间,不会在用户身体上观察到所述过渡动作,但从一个动作过渡到另一个动作时,可以观察到所述过渡动作;
用放在用户对面的摄像机对用户摄像并存储其图像数据的装置;
用于从所述图像数据中抽取与观察到所述过渡动作的身体部分对应的图像的装置;
用于检测与观察到所述过渡动作的身体部分对应的图像之运动的装置;
通过比较所述图像的运动和所述过渡特征数据,然后求出观察到所述过渡动作的时间位置,来分割所述手势的装置,其中所述图像与观察到所述过渡动作的身体部分相对应;
用于检测所述过渡动作之检测状态和所述手势之识别状态的装置;
就所述过渡动作的检测状态和所述手势的识别状态,向用户视觉显示表示所述过渡动作之动画的装置;以及
用于从用户视线中隐藏掉所述摄像机的装置。
22.如权利要求21所述的手势分割设备,其特征在于,所述动画显示装置包括一个面向上的监视器,该监视器放在垂直方向低于所述用户与所述摄像机之间直线的位置上,并且
用于隐藏所述摄像机的所述装置包括一个半反射镜,它允许来自前方的光通过,但反射来自后方的光,其中
所述半反射镜位于所述用户与所述摄像机之间的直线上,并且垂直位置高于所述监视器,相对所述直线成45度角。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP273966/1998 | 1998-09-28 | ||
JP27396698 | 1998-09-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1249454A CN1249454A (zh) | 2000-04-05 |
CN1193284C true CN1193284C (zh) | 2005-03-16 |
Family
ID=17535068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB991210654A Expired - Fee Related CN1193284C (zh) | 1998-09-28 | 1999-09-28 | 用于分割手势的方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US6256400B1 (zh) |
EP (1) | EP0991011B1 (zh) |
CN (1) | CN1193284C (zh) |
DE (1) | DE69936620T2 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102854979A (zh) * | 2011-06-13 | 2013-01-02 | 索尼公司 | 信息处理设备和方法 |
Families Citing this family (376)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
US6993157B1 (en) * | 1999-05-18 | 2006-01-31 | Sanyo Electric Co., Ltd. | Dynamic image processing method and device and medium |
JP2001245269A (ja) * | 2000-02-25 | 2001-09-07 | Sony Corp | コミュニケーション・データ作成装置及び作成方法、コミュニケーション・データ再生装置及び再生方法、並びに、プログラム記憶媒体 |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US6804396B2 (en) * | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
JP3906729B2 (ja) * | 2002-04-05 | 2007-04-18 | 株式会社日立製作所 | 手話教育用システム及び該システムを実現するためのプログラム |
JP3867627B2 (ja) * | 2002-06-26 | 2007-01-10 | ソニー株式会社 | 観客状況推定装置と観客状況推定方法および観客状況推定プログラム |
JP3996015B2 (ja) * | 2002-08-09 | 2007-10-24 | 本田技研工業株式会社 | 姿勢認識装置及び自律ロボット |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
DE602004006190T8 (de) * | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
JP3752246B2 (ja) * | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US10635723B2 (en) | 2004-02-15 | 2020-04-28 | Google Llc | Search engines and systems with handheld document data capture devices |
JP2005242694A (ja) * | 2004-02-26 | 2005-09-08 | Mitsubishi Fuso Truck & Bus Corp | ハンドパターンスイッチ装置 |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US20060098900A1 (en) | 2004-09-27 | 2006-05-11 | King Martin T | Secure data gathering from rendered documents |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US7894670B2 (en) | 2004-04-01 | 2011-02-22 | Exbiblio B.V. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US20060081714A1 (en) | 2004-08-23 | 2006-04-20 | King Martin T | Portable scanning device |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US9008447B2 (en) | 2004-04-01 | 2015-04-14 | Google Inc. | Method and system for character recognition |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US20060020486A1 (en) * | 2004-04-02 | 2006-01-26 | Kurzweil Raymond C | Machine and method to assist user in selecting clothing |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
JP4761568B2 (ja) * | 2004-05-12 | 2011-08-31 | 貴司 吉峰 | 会話支援装置 |
US8346620B2 (en) | 2004-07-19 | 2013-01-01 | Google Inc. | Automatic modification of web pages |
JP4792824B2 (ja) * | 2004-11-05 | 2011-10-12 | 富士ゼロックス株式会社 | 動作分析装置 |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
CN101496387B (zh) | 2006-03-06 | 2012-09-05 | 思科技术公司 | 用于移动无线网络中的接入认证的系统和方法 |
US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
EP2067119A2 (en) | 2006-09-08 | 2009-06-10 | Exbiblio B.V. | Optical scanners, such as hand-held optical scanners |
US7877706B2 (en) | 2007-01-12 | 2011-01-25 | International Business Machines Corporation | Controlling a document based on user behavioral signals detected from a 3D captured image stream |
US8295542B2 (en) | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8588464B2 (en) | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
US7971156B2 (en) | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
US7801332B2 (en) | 2007-01-12 | 2010-09-21 | International Business Machines Corporation | Controlling a system based on user behavioral signals detected from a 3D captured image stream |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7792328B2 (en) | 2007-01-12 | 2010-09-07 | International Business Machines Corporation | Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream |
US8269834B2 (en) | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
FR2911983B1 (fr) * | 2007-01-25 | 2009-05-29 | St Microelectronics Sa | Procede de suivi automatique des mouvements de la mains dans une sequence d'images. |
US8005238B2 (en) | 2007-03-22 | 2011-08-23 | Microsoft Corporation | Robust adaptive beamforming with enhanced noise suppression |
US8077930B2 (en) * | 2007-04-13 | 2011-12-13 | Atg Advanced Swiss Technology Group Ag | Method for recognizing content in an image sequence |
US8005237B2 (en) | 2007-05-17 | 2011-08-23 | Microsoft Corp. | Sensor array beamformer post-processor |
US8629976B2 (en) * | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
KR100906378B1 (ko) * | 2007-12-17 | 2009-07-07 | 한국전자통신연구원 | 머리 제스처를 이용한 사용자 인터페이스 장치 및 그 방법 |
US20090166684A1 (en) * | 2007-12-26 | 2009-07-02 | 3Dv Systems Ltd. | Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk |
US9372576B2 (en) * | 2008-01-04 | 2016-06-21 | Apple Inc. | Image jaggedness filter for determining whether to perform baseline calculations |
US8797377B2 (en) | 2008-02-14 | 2014-08-05 | Cisco Technology, Inc. | Method and system for videoconference configuration |
US8319819B2 (en) | 2008-03-26 | 2012-11-27 | Cisco Technology, Inc. | Virtual round-table videoconference |
US8390667B2 (en) | 2008-04-15 | 2013-03-05 | Cisco Technology, Inc. | Pop-up PIP for people not in picture |
US8385557B2 (en) * | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
US8325909B2 (en) | 2008-06-25 | 2012-12-04 | Microsoft Corporation | Acoustic echo suppression |
US8203699B2 (en) | 2008-06-30 | 2012-06-19 | Microsoft Corporation | System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed |
US8146020B2 (en) * | 2008-07-24 | 2012-03-27 | Qualcomm Incorporated | Enhanced detection of circular engagement gesture |
CN102165396B (zh) * | 2008-07-25 | 2014-10-29 | 高通股份有限公司 | 挥动约定姿态的增强检测 |
US8694658B2 (en) | 2008-09-19 | 2014-04-08 | Cisco Technology, Inc. | System and method for enabling communication sessions in a network environment |
US7796278B2 (en) * | 2008-09-19 | 2010-09-14 | Gii Acquisition, Llc | Method for precisely measuring position of a part to be inspected at a part inspection station |
US20100134499A1 (en) * | 2008-12-03 | 2010-06-03 | Nokia Corporation | Stroke-based animation creation |
US8681321B2 (en) * | 2009-01-04 | 2014-03-25 | Microsoft International Holdings B.V. | Gated 3D camera |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US8448094B2 (en) | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US20100199231A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
US8577084B2 (en) * | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8565476B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8577085B2 (en) * | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US8487938B2 (en) * | 2009-01-30 | 2013-07-16 | Microsoft Corporation | Standard Gestures |
US8682028B2 (en) * | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8565477B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
EP2399385B1 (en) | 2009-02-18 | 2019-11-06 | Google LLC | Automatically capturing information, such as capturing information using a document-aware device |
US8605942B2 (en) * | 2009-02-26 | 2013-12-10 | Nikon Corporation | Subject tracking apparatus, imaging apparatus and subject tracking method |
US8477175B2 (en) * | 2009-03-09 | 2013-07-02 | Cisco Technology, Inc. | System and method for providing three dimensional imaging in a network environment |
US8659637B2 (en) | 2009-03-09 | 2014-02-25 | Cisco Technology, Inc. | System and method for providing three dimensional video conferencing in a network environment |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
WO2010105246A2 (en) | 2009-03-12 | 2010-09-16 | Exbiblio B.V. | Accessing resources based on capturing information from a rendered document |
US8773355B2 (en) | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
US20100257462A1 (en) * | 2009-04-01 | 2010-10-07 | Avaya Inc | Interpretation of gestures to provide visual queues |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US8660303B2 (en) * | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US9015638B2 (en) | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8181123B2 (en) | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
US8253746B2 (en) | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US8638985B2 (en) | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US8509479B2 (en) | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8659639B2 (en) | 2009-05-29 | 2014-02-25 | Cisco Technology, Inc. | System and method for extending communications between participants in a conferencing environment |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US8625837B2 (en) | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US8487871B2 (en) | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US9082297B2 (en) | 2009-08-11 | 2015-07-14 | Cisco Technology, Inc. | System and method for verifying parameters in an audiovisual environment |
EP2472374B1 (en) * | 2009-08-24 | 2019-03-20 | Samsung Electronics Co., Ltd. | Method for providing a ui using motions |
US8264536B2 (en) * | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
US9141193B2 (en) | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8330134B2 (en) * | 2009-09-14 | 2012-12-11 | Microsoft Corporation | Optical fault monitoring |
US8508919B2 (en) | 2009-09-14 | 2013-08-13 | Microsoft Corporation | Separation of electrical and optical components |
US8428340B2 (en) * | 2009-09-21 | 2013-04-23 | Microsoft Corporation | Screen space plane identification |
US8976986B2 (en) * | 2009-09-21 | 2015-03-10 | Microsoft Technology Licensing, Llc | Volume adjustment based on listener position |
US8760571B2 (en) * | 2009-09-21 | 2014-06-24 | Microsoft Corporation | Alignment of lens and image sensor |
US9014546B2 (en) | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8723118B2 (en) | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8988432B2 (en) * | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
KR20110055062A (ko) * | 2009-11-19 | 2011-05-25 | 삼성전자주식회사 | 로봇 시스템 및 그 제어 방법 |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US20110151974A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Gesture style recognition and reward |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9268404B2 (en) * | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US9019201B2 (en) | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US8676581B2 (en) | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) * | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8891067B2 (en) | 2010-02-01 | 2014-11-18 | Microsoft Corporation | Multiple synchronized optical sources for time-of-flight range finding systems |
US8687044B2 (en) | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
US8619122B2 (en) | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8717469B2 (en) | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
US8659658B2 (en) * | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8499257B2 (en) * | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8633890B2 (en) * | 2010-02-16 | 2014-01-21 | Microsoft Corporation | Gesture detection based on joint skipping |
US20110199302A1 (en) * | 2010-02-16 | 2011-08-18 | Microsoft Corporation | Capturing screen objects using a collision volume |
US8928579B2 (en) * | 2010-02-22 | 2015-01-06 | Andrew David Wilson | Interacting with an omni-directionally projected display |
US20110216173A1 (en) * | 2010-03-02 | 2011-09-08 | Comcast Cable Communications, Llc | Impairments To 3D Experiences |
US8422769B2 (en) | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
US8655069B2 (en) | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US20110223995A1 (en) | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US20110221755A1 (en) * | 2010-03-12 | 2011-09-15 | Kevin Geisner | Bionic motion |
US8279418B2 (en) * | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
US9225916B2 (en) | 2010-03-18 | 2015-12-29 | Cisco Technology, Inc. | System and method for enhancing video images in a conferencing environment |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US8514269B2 (en) * | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
US20110234481A1 (en) * | 2010-03-26 | 2011-09-29 | Sagi Katz | Enhancing presentations using depth sensing cameras |
US8523667B2 (en) * | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8605763B2 (en) | 2010-03-31 | 2013-12-10 | Microsoft Corporation | Temperature measurement and control for laser and light-emitting diodes |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
US8284847B2 (en) | 2010-05-03 | 2012-10-09 | Microsoft Corporation | Detecting motion for a multifunction sensor device |
US8498481B2 (en) | 2010-05-07 | 2013-07-30 | Microsoft Corporation | Image segmentation using star-convexity constraints |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US9313452B2 (en) | 2010-05-17 | 2016-04-12 | Cisco Technology, Inc. | System and method for providing retracting optics in a video conferencing environment |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8803888B2 (en) | 2010-06-02 | 2014-08-12 | Microsoft Corporation | Recognition system for sharing information |
US9008355B2 (en) | 2010-06-04 | 2015-04-14 | Microsoft Technology Licensing, Llc | Automatic depth camera aiming |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9557574B2 (en) | 2010-06-08 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth illumination and detection optics |
US8330822B2 (en) | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
US9384329B2 (en) | 2010-06-11 | 2016-07-05 | Microsoft Technology Licensing, Llc | Caloric burn determination from body movement |
US8675981B2 (en) | 2010-06-11 | 2014-03-18 | Microsoft Corporation | Multi-modal gender recognition including depth data |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US20110304541A1 (en) * | 2010-06-11 | 2011-12-15 | Navneet Dalal | Method and system for detecting gestures |
US8982151B2 (en) | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8558873B2 (en) | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
US8896655B2 (en) | 2010-08-31 | 2014-11-25 | Cisco Technology, Inc. | System and method for providing depth adaptive video conferencing |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8467599B2 (en) | 2010-09-02 | 2013-06-18 | Edge 3 Technologies, Inc. | Method and apparatus for confusion learning |
US20120058824A1 (en) | 2010-09-07 | 2012-03-08 | Microsoft Corporation | Scalable real-time motion recognition |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US8599934B2 (en) | 2010-09-08 | 2013-12-03 | Cisco Technology, Inc. | System and method for skip coding during video conferencing in a network environment |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
WO2012042390A2 (en) * | 2010-09-30 | 2012-04-05 | France Telecom | User interface system and method of operation thereof |
US8548270B2 (en) | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
US8599865B2 (en) | 2010-10-26 | 2013-12-03 | Cisco Technology, Inc. | System and method for provisioning flows in a mobile network environment |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US8699457B2 (en) | 2010-11-03 | 2014-04-15 | Cisco Technology, Inc. | System and method for managing flows in a mobile network environment |
US8866889B2 (en) | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
JP2012098988A (ja) * | 2010-11-04 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8667519B2 (en) | 2010-11-12 | 2014-03-04 | Microsoft Corporation | Automatic passive and anonymous feedback system |
US9338394B2 (en) | 2010-11-15 | 2016-05-10 | Cisco Technology, Inc. | System and method for providing enhanced audio in a video environment |
US8902244B2 (en) | 2010-11-15 | 2014-12-02 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US8730297B2 (en) | 2010-11-15 | 2014-05-20 | Cisco Technology, Inc. | System and method for providing camera functions in a video environment |
US9143725B2 (en) | 2010-11-15 | 2015-09-22 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US10726861B2 (en) | 2010-11-15 | 2020-07-28 | Microsoft Technology Licensing, Llc | Semi-private communication in open environments |
US8542264B2 (en) | 2010-11-18 | 2013-09-24 | Cisco Technology, Inc. | System and method for managing optics in a video environment |
US8723914B2 (en) | 2010-11-19 | 2014-05-13 | Cisco Technology, Inc. | System and method for providing enhanced video processing in a network environment |
US9349040B2 (en) | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
US9111138B2 (en) * | 2010-11-30 | 2015-08-18 | Cisco Technology, Inc. | System and method for gesture interface control |
US10234545B2 (en) | 2010-12-01 | 2019-03-19 | Microsoft Technology Licensing, Llc | Light source module |
US8553934B2 (en) | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
US8618405B2 (en) | 2010-12-09 | 2013-12-31 | Microsoft Corp. | Free-space gesture musical instrument digital interface (MIDI) controller |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US8884968B2 (en) | 2010-12-15 | 2014-11-11 | Microsoft Corporation | Modeling an object from image data |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8920241B2 (en) | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
USD682854S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen for graphical user interface |
USD682294S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678320S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678894S1 (en) | 2010-12-16 | 2013-03-26 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678308S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682293S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682864S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678307S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US8803952B2 (en) | 2010-12-20 | 2014-08-12 | Microsoft Corporation | Plural detector time-of-flight depth mapping |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US8385596B2 (en) | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
US9823339B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Plural anode time-of-flight sensor |
US9848106B2 (en) | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
TW201233157A (en) * | 2011-01-27 | 2012-08-01 | Hon Hai Prec Ind Co Ltd | System and method for avoiding closed eyes during capturing person images |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8724887B2 (en) | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
US9189072B2 (en) * | 2011-02-08 | 2015-11-17 | Lg Electronics Inc. | Display device and control method thereof |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8497838B2 (en) | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
US8692862B2 (en) | 2011-02-28 | 2014-04-08 | Cisco Technology, Inc. | System and method for selection of video data in a video conference environment |
US9551914B2 (en) | 2011-03-07 | 2017-01-24 | Microsoft Technology Licensing, Llc | Illuminator with refractive optical element |
US9067136B2 (en) | 2011-03-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Push personalization of interface controls |
US10895917B2 (en) * | 2011-03-12 | 2021-01-19 | Uday Parshionikar | Multipurpose controllers and methods |
US8571263B2 (en) | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
US9470778B2 (en) | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US8503494B2 (en) | 2011-04-05 | 2013-08-06 | Microsoft Corporation | Thermal management system |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
JP5798183B2 (ja) * | 2011-04-22 | 2015-10-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | ポインティング制御装置とその集積回路、およびポインティング制御方法 |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US9259643B2 (en) | 2011-04-28 | 2016-02-16 | Microsoft Technology Licensing, Llc | Control of separate computer game elements |
US8702507B2 (en) | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US8670019B2 (en) | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
US8786631B1 (en) | 2011-04-30 | 2014-07-22 | Cisco Technology, Inc. | System and method for transferring transparency information in a video environment |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US8888331B2 (en) | 2011-05-09 | 2014-11-18 | Microsoft Corporation | Low inductance light source module |
JP6207023B2 (ja) * | 2011-05-09 | 2017-10-04 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | スクリーン上のオブジェクトの回転 |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
US9137463B2 (en) | 2011-05-12 | 2015-09-15 | Microsoft Technology Licensing, Llc | Adaptive high dynamic range camera |
US8934026B2 (en) | 2011-05-12 | 2015-01-13 | Cisco Technology, Inc. | System and method for video coding in a dynamic environment |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US9724600B2 (en) | 2011-06-06 | 2017-08-08 | Microsoft Technology Licensing, Llc | Controlling objects in a virtual environment |
US9098110B2 (en) | 2011-06-06 | 2015-08-04 | Microsoft Technology Licensing, Llc | Head rotation tracking from depth-based center of mass |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US8597142B2 (en) | 2011-06-06 | 2013-12-03 | Microsoft Corporation | Dynamic camera based practice mode |
US10796494B2 (en) | 2011-06-06 | 2020-10-06 | Microsoft Technology Licensing, Llc | Adding attributes to virtual representations of real-world objects |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
US8786730B2 (en) | 2011-08-18 | 2014-07-22 | Microsoft Corporation | Image exposure using exclusion regions |
US9557836B2 (en) | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US8854426B2 (en) | 2011-11-07 | 2014-10-07 | Microsoft Corporation | Time-of-flight camera with guided light |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US8947493B2 (en) | 2011-11-16 | 2015-02-03 | Cisco Technology, Inc. | System and method for alerting a participant in a video conference |
US8724906B2 (en) | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8803800B2 (en) | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
US8879831B2 (en) | 2011-12-15 | 2014-11-04 | Microsoft Corporation | Using high-level attributes to guide image processing |
US8971612B2 (en) | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9342139B2 (en) | 2011-12-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Pairing a computing device to a user |
US8682087B2 (en) | 2011-12-19 | 2014-03-25 | Cisco Technology, Inc. | System and method for depth-guided image filtering in a video conference environment |
KR101868903B1 (ko) * | 2012-01-11 | 2018-06-20 | 한국전자통신연구원 | 손 추적 장치 및 방법 |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
US9600169B2 (en) | 2012-02-27 | 2017-03-21 | Yahoo! Inc. | Customizable gestures for mobile devices |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US9210401B2 (en) | 2012-05-03 | 2015-12-08 | Microsoft Technology Licensing, Llc | Projected visual cues for guiding physical movement |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
CN102693084B (zh) * | 2012-05-08 | 2016-08-03 | 上海鼎为电子科技(集团)有限公司 | 移动终端及其响应操作的方法 |
US9619036B2 (en) | 2012-05-11 | 2017-04-11 | Comcast Cable Communications, Llc | System and methods for controlling a user experience |
US9263084B1 (en) * | 2012-06-15 | 2016-02-16 | A9.Com, Inc. | Selective sharing of body data |
CN104395929B (zh) | 2012-06-21 | 2017-10-03 | 微软技术许可有限责任公司 | 使用深度相机的化身构造 |
US9836590B2 (en) | 2012-06-22 | 2017-12-05 | Microsoft Technology Licensing, Llc | Enhanced accuracy of user presence status determination |
US9696427B2 (en) | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
TWI479430B (zh) * | 2012-10-08 | 2015-04-01 | Pixart Imaging Inc | 以自然影像進行的手勢辨識方法 |
CN104813258B (zh) * | 2012-11-22 | 2017-11-10 | 夏普株式会社 | 数据输入装置 |
US9681154B2 (en) | 2012-12-06 | 2017-06-13 | Patent Capital Group | System and method for depth-guided filtering in a video conference environment |
US8882310B2 (en) | 2012-12-10 | 2014-11-11 | Microsoft Corporation | Laser die light source module with low inductance |
KR101393573B1 (ko) * | 2012-12-27 | 2014-05-09 | 현대자동차 주식회사 | 광 스캔을 이용한 사용자 인터페이스 시스템 및 방법 |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9251590B2 (en) | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
US9052746B2 (en) | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9524028B2 (en) * | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9092657B2 (en) | 2013-03-13 | 2015-07-28 | Microsoft Technology Licensing, Llc | Depth image processing |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
US9953213B2 (en) | 2013-03-27 | 2018-04-24 | Microsoft Technology Licensing, Llc | Self discovery of autonomous NUI devices |
US9442186B2 (en) | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
US9843621B2 (en) | 2013-05-17 | 2017-12-12 | Cisco Technology, Inc. | Calendaring activities based on communication processing |
US10884493B2 (en) | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9462253B2 (en) | 2013-09-23 | 2016-10-04 | Microsoft Technology Licensing, Llc | Optical modules that reduce speckle contrast and diffraction artifacts |
JP6132925B2 (ja) | 2013-09-30 | 2017-05-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9996638B1 (en) * | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9674563B2 (en) | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
US9508385B2 (en) | 2013-11-21 | 2016-11-29 | Microsoft Technology Licensing, Llc | Audio-visual project generator |
US9971491B2 (en) | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9785247B1 (en) | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
AU2015284303B2 (en) * | 2014-07-02 | 2019-07-25 | Covidien Lp | System and method for detecting trachea |
US20160078287A1 (en) | 2014-08-29 | 2016-03-17 | Konica Minola Laboratory U.S.A., Inc. | Method and system of temporal segmentation for gesture analysis |
GB201416311D0 (en) | 2014-09-16 | 2014-10-29 | Univ Hull | Method and Apparatus for Producing Output Indicative of the Content of Speech or Mouthed Speech from Movement of Speech Articulators |
US9378421B2 (en) * | 2014-09-29 | 2016-06-28 | Xerox Corporation | System and method for seat occupancy detection from ceiling mounted camera using robust adaptive threshold criteria |
US10412280B2 (en) | 2016-02-10 | 2019-09-10 | Microsoft Technology Licensing, Llc | Camera with light valve over sensor array |
US10257932B2 (en) | 2016-02-16 | 2019-04-09 | Microsoft Technology Licensing, Llc. | Laser diode chip on printed circuit board |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
CN106547354B (zh) * | 2016-10-31 | 2019-08-02 | 邯郸美的制冷设备有限公司 | 一种用于控制空调的手势校验方法及装置 |
US11295120B2 (en) * | 2020-05-06 | 2022-04-05 | Nec Corporation Of America | Hand gesture habit forming |
CN116897368A (zh) * | 2021-08-19 | 2023-10-17 | 日本电气株式会社 | 用于测量生产率的方法、装置和非暂时性计算机可读介质 |
CN114677766B (zh) * | 2022-05-26 | 2023-02-14 | 中国科学院西安光学精密机械研究所 | 基于无镜头成像技术的手语识别方法、系统及交互设备 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4878843A (en) * | 1988-06-08 | 1989-11-07 | Kuch Nina J | Process and apparatus for conveying information through motion sequences |
US5759044A (en) * | 1990-02-22 | 1998-06-02 | Redmond Productions | Methods and apparatus for generating and processing synthetic and absolute real time environments |
US5422653A (en) * | 1993-01-07 | 1995-06-06 | Maguire, Jr.; Francis J. | Passive virtual reality |
JPH07282235A (ja) | 1994-04-15 | 1995-10-27 | Matsushita Electric Ind Co Ltd | 動作認識装置 |
US5982853A (en) * | 1995-03-01 | 1999-11-09 | Liebermann; Raanan | Telephone for the deaf and method of using same |
JP3440641B2 (ja) | 1995-07-26 | 2003-08-25 | 松下電器産業株式会社 | 動作開始位置検出方法 |
US5953052A (en) * | 1995-09-20 | 1999-09-14 | Videotronic Systems | Reflected display teleconferencing eye contact terminal |
US5802220A (en) * | 1995-12-15 | 1998-09-01 | Xerox Corporation | Apparatus and method for tracking facial motion through a sequence of images |
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
US5859904A (en) * | 1997-01-03 | 1999-01-12 | Advis, Inc. | Methods and systems for connecting multiple telephone lines between two stations |
US5832115A (en) * | 1997-01-02 | 1998-11-03 | Lucent Technologies Inc. | Ternary image templates for improved semantic compression |
US5990865A (en) * | 1997-01-06 | 1999-11-23 | Gard; Matthew Davis | Computer interface device |
US5890120A (en) * | 1997-05-20 | 1999-03-30 | At&T Corp | Matching, synchronization, and superposition on orginal speaking subject images of modified signs from sign language database corresponding to recognized speech segments |
US5930379A (en) * | 1997-06-16 | 1999-07-27 | Digital Equipment Corporation | Method for detecting human body motion in frames of a video sequence |
US5990980A (en) * | 1997-12-23 | 1999-11-23 | Sarnoff Corporation | Detection of transitions in video sequences |
-
1999
- 1999-09-27 DE DE69936620T patent/DE69936620T2/de not_active Expired - Lifetime
- 1999-09-27 EP EP99118095A patent/EP0991011B1/en not_active Expired - Lifetime
- 1999-09-28 CN CNB991210654A patent/CN1193284C/zh not_active Expired - Fee Related
- 1999-09-28 US US09/406,733 patent/US6256400B1/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102854979A (zh) * | 2011-06-13 | 2013-01-02 | 索尼公司 | 信息处理设备和方法 |
US9933850B2 (en) | 2011-06-13 | 2018-04-03 | Sony Corporation | Information processing apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
DE69936620T2 (de) | 2008-05-21 |
EP0991011A3 (en) | 2002-01-09 |
EP0991011B1 (en) | 2007-07-25 |
US6256400B1 (en) | 2001-07-03 |
DE69936620D1 (de) | 2007-09-06 |
EP0991011A2 (en) | 2000-04-05 |
CN1249454A (zh) | 2000-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1193284C (zh) | 用于分割手势的方法和设备 | |
CN101055646A (zh) | 用于处理图像的方法、装置和计算机程序 | |
CN100346352C (zh) | 图像显示装置和短片生成装置 | |
CN1194318C (zh) | 物体区域信息记述方法和物体区域信息生成装置 | |
CN1136516C (zh) | 图案抽取装置和方法 | |
CN1220163C (zh) | 标题抽取装置及其方法 | |
CN1047680C (zh) | 脸部图像数据处理装置 | |
CN1126025C (zh) | 窗口显示装置 | |
CN100347723C (zh) | 基于几何代价与语义-识别代价结合的脱机手写汉字字符的切分方法 | |
CN101046883A (zh) | 图形绘制设备 | |
CN1645241A (zh) | 摄影装置、图像处理装置、摄影装置的图像处理方法 | |
CN101069213A (zh) | 场景修饰表现生成装置以及场景修饰表现生成方法 | |
CN1910543A (zh) | 三维指示方法、三维显示控制方法、三维指示装置、三维显示控制装置、三维指示程序、以及三维显示控制程序 | |
CN1926575A (zh) | 图像相似度计算系统、图像搜索系统、图像相似度计算方法和图像相似度计算程序 | |
CN1252667A (zh) | 图象阅读器 | |
CN1530855A (zh) | 布局系统和布局程序以及布局方法 | |
CN101064177A (zh) | 字幕显示控制设备 | |
CN1950850A (zh) | 图像处理设备和方法、记录介质和程序 | |
CN1942899A (zh) | 脸图像制作装置和方法 | |
CN1207896C (zh) | 图象数据的压缩和恢复方法 | |
CN1469229A (zh) | 辅助输入装置 | |
CN1102279C (zh) | 图象控制装置 | |
CN1790377A (zh) | 反白字符识别、快速准确的块分类方法和文本行生成方法 | |
CN1253229C (zh) | 游戏机 | |
CN1317892C (zh) | 电视电影变换方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20050316 Termination date: 20180928 |