CN105324811A - 语音到文本转换 - Google Patents
语音到文本转换 Download PDFInfo
- Publication number
- CN105324811A CN105324811A CN201480026549.6A CN201480026549A CN105324811A CN 105324811 A CN105324811 A CN 105324811A CN 201480026549 A CN201480026549 A CN 201480026549A CN 105324811 A CN105324811 A CN 105324811A
- Authority
- CN
- China
- Prior art keywords
- text
- input
- user
- target
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Abstract
公开了涉及将来自环境的音频输入转换成文本的各实施例。例如,在一个公开的实施例中,语音转换程序接收来自头戴式显示设备的话筒阵列的音频输入。从环境中捕捉图像数据,并且从图像数据中检测一个或多个可能的脸。眼睛跟踪数据被用于确定用户聚焦于的目标脸。波束成形技术被应用于音频输入的至少一部分以标识与目标脸相关联的目标音频输入。这些目标音频输入被转换成通过头戴式显示设备的透明显示器来显示的文本。
Description
背景
具有听觉障碍的人可以使用一种或多个技术来理解源自另一个人或设备的可听到的语音和/或其它声音。例如,在讲话者正在讲话且有听觉障碍的人可以看到讲话者的嘴巴的情况下,这个人可以使用唇读技术来理解该语音的内容。然而,要使用这样的技术需要这个人学习唇读技术。而且,在这个人对讲话者的查看受到限制或阻挡的情况下,这样的技术不能够提供令人满意的协助。
另一种可能性是由第三方将语音翻译成特定的手语,该手语可以被掌握该手语的人理解。第三方还可以将语音改写成可由这个人阅读的书面形式。然而,使第三方可用于执行这样的翻译和改写强加了相当大的限制。
另一个方案可以使用语音识别技术来接收语音、解释语音和将语音可视地呈现给有听觉障碍的人。然而,当讲话者没有清楚直接地对着接收话筒讲话和/或当背景噪声过多时,这种技术的准确度通常变坏。因此,并且尤其在嘈杂和拥挤的环境中,这样的技术可能是不切实际的且少有帮助。而且,有听力能力的人也可能遇到涉及许多人和/或过多噪声的情形,例如社交聚会、贸易展等,在这些情形中难以或不可能听到另一个人的语音。
概述
本文公开了与语音转换系统有关的各实施例。例如,一个公开的实施例提供了一种用于将来自环境的音频输入转换成文本的方法。所述方法包括捕捉来自环境的图像数据并从该图像数据检测一个或多个可能的脸。来自头戴式显示设备的眼睛跟踪系统的眼睛跟踪数据被用于确定用户所聚焦于的目标脸。
一种波束成形技术可以被应用到来自头戴式显示设备的话筒阵列的音频输入中以标识与目标脸相关联的目标音频输入。所述方法包括将目标音频输入转换成文本。所述方法还包括通过头戴式显示设备的透明显示器来显示文本。
提供该概述以便以简化形式介绍概念的选集,所述概念在以下详细描述中被进一步描述。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。而且,所要求保护的主题不限于解决该公开的任一部分中所注的任何或全部缺点的实现方式。
附图简述
图1是根据本公开的一实施例的语音转换系统的示意图。
图2示出根据本公开的一实施例的示例头戴式显示设备。
图3是房间中佩戴图2的头戴式显示设备的用户以及三个其他人的示意性透视图。
图4A和4B示出了用于根据本公开的一实施例来将来自环境的音频输入转换成文本的方法的流程图。
图5是计算设备的一实施例的简化示意图解。
详细描述
图1示出了语音转换系统10的一个实施例的示意图。语音转换系统10包括可被存储在计算设备22的大容量存储18中的语音转换程序14。如以下更详细描述的,语音转换程序14可以包括语音聚焦程序24和波束成形器程序26。
语音转换程序14可被加载到存储器28中并由计算设备22的处理器30执行以执行下文更为详细地描述的方法和过程中的一个或多个。又如下文更加详细描述的,大容量存储18还可以包括脸部检测程序84、用户聚焦程序86、手语程序88以及唇读程序90。
语音转换系统10包括混合现实显示程序32,该混合现实显示程序32可生成用于经由显示设备(诸如头戴式显示器(HMD)设备36)显示的虚拟环境34以创建混合现实环境。虚拟环境34可包括一个或多个虚拟对象。这样的虚拟对象可包括一个或多个虚拟图像(诸如三维全息图像)和其他虚拟对象(诸如二维虚拟对象)。如下文更加详细描述的,这样的虚拟对象可以包括已经从由HMD设备36所接收的目标音频输入中生成的文本40。
计算设备22可采用以下形式:台式计算设备,诸如智能电话、膝上型计算机、笔记本或平板计算机之类的移动计算设备,网络计算机,家庭娱乐计算机,交互式电视,游戏系统,或其他合适类型的计算设备。关于计算设备22的组件和计算方面的附加细节在下文中参考图5更详细地描述。
计算设备22可使用有线连接来与HMD设备36在操作上连接,或可采用经由WiFi、蓝牙或任何其他合适的无线通信协议的无线连接。例如,计算设备22可通信地耦合到网络16。网络16可采取局域网(LAN)、广域网(WAN)、有线网络、无线网络、个域网、或其组合的形式,并且可包括因特网。
如以下更详细描述的,计算设备22可经由网络16与一个或多个其它HMD设备和其它计算设备(诸如服务器20)通信。另外,图1中示出的示例将计算设备22示为与HMD设备36分开的组件。将理解,在其他示例中,计算设备22可被集成到HMD设备36中。
现在还参考图2,提供了一副具有透明显示器44的可配戴眼镜形式的HMD设备200的示例。将明白,在其他示例中,HMD设备200可以采取其他合适的形式,其中透明、半透明或不透明显示器被支撑在查看者的一只或两只眼睛前方。还将明白,图1中所示的HMD设备36可以采取HMD设备200的形式(如在下文更详细地描述的)或任何其他合适的HMD设备。另外,在本公开的范围内还可使用具有各种形状因子的许多其他类型和配置的显示设备。此类显示设备可包括但不限于手持式智能电话、平板计算机以及其他适当的显示设备。
参考图1和2,HMD设备36包括显示系统48和使图像(诸如全息对象)能够被递送到用户46的眼睛的透明显示器44。透明显示器44可被配置成向透过该透明显示器查看物理环境的用户46在视觉上增强该物理环境50的外观。例如,物理环境50的外观可以由经由透明显示器44呈现的图形内容(例如,一个或多个像素,每一像素具有相应色彩和亮度)来增强以创建混合现实环境。
透明显示器44还可被配置成使用户能够透过显示虚拟对象表示的一个或多个部分透明的像素来查看物理环境50中的物理现实世界对象(诸如,脸154、脸256和脸358)。如图2所示,在一个示例中,透明显示器44可包括位于透镜204内的图像生成元件(诸如例如透视有机发光二极管(OLED)显示器)。作为另一示例,透明显示器44可包括在透镜204边缘上的光调制器。在这一示例中,透镜204可以担当光导以供将光从光调制器递送到用户的眼睛。这样的光导可使得用户能够感知位于物理环境50内的用户正在查看的3D全息图像,同时还允许用户查看物理环境中的物理对象,由此创建混合现实环境。
HMD设备36还可包括各种传感器和相关系统。例如,HMD设备36可包括利用至少一个面向内的传感器216的眼睛跟踪系统62。该面向内的传感器216可以是被配置成从用户的眼睛获取眼睛跟踪数据66形式的图像数据的图像传感器。假定用户已同意获取和使用这一信息,眼睛跟踪系统62可以使用这一信息来跟踪用户的眼睛的位置和/或运动。
在一个示例中,眼睛跟踪系统62包括被配置成检测用户的每一个眼睛的注视方向的注视检测子系统。该注视检测子系统可被配置成以任何合适方式确定每一只用户眼睛的注视方向。例如,注视检测子系统可包括诸如红外光源等被配置成使得从用户的每一只眼睛反射闪光的一个或多个光源。一个或多个图像传感器然后可被配置成捕捉用户眼睛的图像。
如从收集自图像传感器的图像数据确定的闪烁和瞳孔的图像可用于确定每一眼睛的光轴。使用该信息,眼睛跟踪系统62随后可以确定用户正在注视的方向和/或用户正注视着什么物理对象或虚拟对象。这样的眼睛跟踪数据66可随后被提供给计算设备22。将理解,注视检测子系统可以具有任意适当数量和布置的光源和图像传感器。
HMD设备36还可包括从物理环境50接收物理环境数据60的传感器系统。例如,HMD设备36可包括利用至少一个面向外的传感器212(如光学传感器)的光学传感器系统68。面向外的传感器212可以检测其视野内的运动,如视野内的用户46或人或物理对象所执行的基于姿势的输入或其他运动。面向外的传感器212还可从物理环境50和该环境内的物理对象捕捉二维图像信息和深度信息。例如,面向外的传感器212可包括深度相机、可见光相机、红外光相机,和/或位置跟踪相机。
HMD设备36可包括经由一个或多个深度相机的深度感测。在一个示例中,每一深度相机可包括立体视觉系统的左和右相机。来自这些深度相机中的一个或多个的时间分辨的图像可被彼此配准和/或与来自另一光学传感器(如可见光谱相机)的图像配准,且可被组合以产生深度分辨的视频。
在其他示例中,结构化光深度相机可被配置成投影结构化红外照明并对从照明被投影到其之上的场景中反射的该照明进行成像。基于所成像的场景的各个区域内邻近特征之间的间隔,可构造该场景的深度图。在其他示例中,深度相机可以采取飞行时间深度相机的形式,其被配置成将脉冲的红外照明投影到该场景上以及检测从该场景反射的照明。可以理解,在本发明的范围内可使用任意其他合适的深度相机。
面向外的传感器212可以捕捉用户46位于其中的物理环境50的图像。在一个示例中,混合现实显示程序32可包括使用这样的输入来生成对围绕该用户46的物理环境50进行建模的虚拟环境34的3D建模系统。
HMD设备36还可包括位置传感器系统72,该位置传感器系统72利用一个或多个运动传感器220来实现对HMD设备的运动检测、位置跟踪和/或取向感测。例如,位置传感器系统64可被用来确定用户的头部的方向、速度和加速度。位置传感器系统64还可被用来确定用户的头部的头部姿态取向。在一个示例中,位置传感器系统64可包括配置成六轴或六自由度的位置传感器系统的惯性测量单元。这一示例位置传感器系统可以例如包括用于指示或测量HMD设备36在三维空间内沿三个正交轴(例如,x、y、z)的位置变化以及该HMD设备绕三个正交轴(例如,翻滚、俯仰、偏航)的取向变化的三个加速度计和三个陀螺仪。
位置传感器系统64还可以支持其他合适的定位技术,如GPS或其他全球导航系统。而且,尽管描述了位置传感器系统的具体示例,但将明白,可以使用其他合适的位置传感器系统。在一些示例中,运动传感器220还可以被用作用户输入设备,使得用户可以经由颈部和头部或者甚至身体的姿势来与HMD设备36交互。
HMD设备36还可包括包含一个或多个刚性安装在HMD设备上的话筒的话筒阵列66。在图2示出的示例中,提供了有6个话筒224、228、232、236、240以及244的阵列,当用户佩戴HMD设备200时,这些话筒被定位在用户头部周围的各个位置处。在一个示例中,所有的6个话筒224、228、232、236、240以及244可以是被配置为接收来自物理环境50的语音和其它音频输入的全向话筒。
在另一个示例中,话筒224、228、232以及236可以是全向话筒,而话筒240和244可以是被配置为接收来自佩戴了HMD设备200的用户46的语音的单向话筒。还将理解的是,在其它示例中,HMD设备200周围的话筒的数目、类型和/或位置可以是不同的,并且可以使用任何合适的数目、类型和布置的话筒。在又一个其他示例中,音频可经由HMD设备36上的一个或多个扬声器248被呈现给用户。
HMD设备36还可包括具有与HMD设备的各传感器和系统通信的逻辑子系统和存储子系统的处理器250,如在下文参考图5更详细地讨论的。在一个示例中,存储子系统可包括可由逻辑子系统执行的指令,用以接收来自传感器的信号输入并将此类输入转发到计算设备22(以未经处理或经处理的形式)并且经由透明显示器44向用户呈现图像。
要领会,HMD设备36和相关的传感器以及上面描述的并在图1和2中解说的其他组件是作为示例来提供的。这些示例不旨在以任何方式进行限制,因为任何其他合适的传感器、组件,和/或传感器和组件的组合可被使用。因此,将理解,HMD设备36可以包括未偏离本公开文本范畴的附加和/或替代的传感器、相机、话筒、输入设备、输出设备等。此外,HMD设备36的物理配置及其各种传感器和子组件可以采取不偏离本公开文本范畴的各种不同形式。
现参考图3,现在将提供对语音转换系统10的示例用例和实施例的描述。图3提供了用户304的各个示意性图示,该用户304位于包括房间308的物理环境中并经由HMD设备200形式的HMD设备36体验混合现实环境。通过HMD设备200的透明显示器44观看房间308,用户304可以具有包括具有脸154的第一人316、具有脸256的第二人320以及具有脸358的第三人324的视野312。壁挂式显示器328也可以在用户304的视野312内。
HMD设备200的光学传感器系统68可以从房间308捕捉图像数据80,包括表示一个或多个可能的脸(例如脸154、脸256和脸358)的图像数据。计算设备22的脸部检测程序84可以从图像数据80中检测脸154、脸256和脸358的一个或多个。为了检测图像数据中的脸部图像,脸部检测程序84可使用任何合适的脸部检测技术和/或算法,包括但不限于局部二元图(LBP)、主分量分析(PCA)、独立分量分析(ICA)、进化追击(EP)、弹性束图匹配(EBGM)或其他合适的算法或算法组合。
在一些示例中,用户304可具有听觉障碍,该听觉障碍使得理解语音变得困难,特别是在具有多个讲话者和/或显著的背景噪声的环境中。在如图3所示的示例中,第一人316、第二人320,以及第三人324中的每个可以同时在讲话。壁挂式显示器328还可以发出音频。所有这些音频输入68可以由HMD设备200的话筒224、228、232、236、240以及244接收。
在一个示例中,用户304可以期望听到第一人316和/或与第一人316交谈。用户304可以注视第一人316,如注视线332所指示的。对应于用户注视的眼睛跟踪数据66可以由眼睛跟踪系统62捕捉并被提供给计算设备22。使用眼睛跟踪数据66和图像数据80,用户聚焦程序86可以确定用户304聚焦于第一人316的脸154,该脸被指定为目标脸。
可以确定第一人316的目标脸154相对于HMD设备200的位置。在一些示例中,眼睛跟踪数据66、图像数据80(例如由光学传感器系统68接收的深度信息和/或由位置传感器系统72生成的位置信息)可以被用于确定脸154的位置。
使用目标脸154的位置,语音转换程序14可以使用波束成形器程序26将一种或多种波束成形技术应用于来自话筒阵列66的音频输入68的至少一个部分。或者可表示为,一种或多种波束成形技术可以被应用于音频输入68的源自目标脸154的位置的各部分。通过这种方式,波束成形器程序26可以标识与第一人316的脸154相关联的目标音频输入,其通常在图3中的336处指示。在图3中示出的示例中,目标音频输入可以对应于说着“I’mspeakingintheballroomat3:00thisafternoon(我今天下午3:00在宴会厅演讲)”的第一人316。
在其它示例中,语音聚焦程序24可以利用在话筒阵列66中的每个话筒处接收到的音频输入68的时间差来确定接收各声音的方向。例如,语音聚焦程序24可以相对于HMD设备200的一个或多个全向话筒标识从其接收到讲话的位置。使用波束成形器程序26,语音转换程序14可以随后将波束成形技术应用于语音并标识与接收语音的位置相关联的目标音频输入。
在一些示例中,波束成形器程序26可以被配置为形成可用任何合适的方式确定的单个、定向自适应声音信号。例如,可以基于不随时间改变的波束成形技术、自适应波束成形技术或不随时间改变和自适应波束成形技术的组合来确定定向自适应声音信号。所得到的组合信号可以具有窄方向性模式,该模式可以以语音源的方向前进,例如第一人316的脸154的位置。将可以理解的是,可以使用任何合适的波束成形技术来标识与目标脸相关联的目标音频输入。
继续参考图1和3,语音转换程序14可以被配置成将目标音频输入转换成文本40,并通过HMD200的透明显示器44显示文本40。在图3所示的示例中,可以将目标音频输入336转换成文本40’,该文本由HMD设备200以文本气泡形式显示在第一人316的头部之上,因此,允许用户304很容易地将该文本与第一人相关联。
在一个示例中,语音转换程序14可以向第一人316标记文本40’,这样,文本气泡340在空间上被锚定到第一人,并在第一人移动时跟随第一人。在另一个示例中且如下文更加详细所述的,与目标脸(例如第一人316的脸154)相关联的身份可以被确定,并且文本40’可以被标记给对应于该身份的人。
在另一个示例中,显示的文本40’可以被地理定位在房间308中。在一个示例中,当站立在房间308中时,用户304可以叙述“TheWiFisignalinthisroomisveryweak(这个房间中的WiFi信号非常弱)”,如在所显示的文本40’中所示”。该语音可以被捕捉,并由语音转换系统10转换成文本。由于该叙述特别涉及房间308,显示的文本40”可以被地理定位到房间308。因此,显示的文本40”可以对于用户304仍然可见,且空间上锚定到房间308。
在一个示例中,显示的文本40”可以保持被地理定位到房间308达预定时间帧。通过这种方式,无论用户304在该时间帧内的何时进入房间308,文本40”都将被显示给房间内的用户304。在其他示例中,也可以通过位于房间308内的一个或多个其它用户的HMD设备200将文本40”显示给该一个或多个其他用户。
在其它示例中,可以由HMD设备200接收房间308中来自一个或多个外部源的附加音频输入。例如,第三人324也可以佩戴HMD设备200’形式的HMD设备36。HMD设备200’可以通过例如网络16通信地耦合到HMD设备200。HMD设备200’可以接收来自房间308的附加音频输入,包括来自第一人316的第一人音频输入348。HMD设备200’可将这些第一人音频输入348与和该输入有关的位置数据一起提供给HMD设备200。HMD设备200’可以使用这些附加的音频输入来标识从第一人316接收的目标音频输入336,和/或改进目标音频输入的语音到文本转换的质量和/或效率。
如上所述,在一些示例中,脸部检测程序84可以被配置为确定与目标脸(例如第一人316的脸154)相关联的身份。在一个示例中,脸部检测程序84可访问服务器20上的用户简档数据92以将包括脸154的图像数据与对应于第一人316的一个或多个图像以及用户简档信息进行匹配。将理解,脸部检测程序84可使用任何合适的脸部识别技术来将脸154的图像数据与所存储的第一人316的图像进行匹配。
在一些示例中,语音转换程序14可以利用与脸154相关联的身份来访问对应于身份的语音模式数据94。语音转换程序14可以随后使用该语音模式数据94来将目标音频输入336转换成文本40。例如,语音模式数据94可以允许语音转换程序14更准确地和/或更有效地将目标音频输入336转换成文本40。
作为替换且如上所述,在一些示例中,显示的文本40’可以被标记给对应于该身份的第一人316。如此,语音转换程序14可以向第一人316标记文本40’,这样,文本气泡340在空间上被锚定到第一人,并在第一人移动时跟随第一人。在一些示例中,也可以通过其它HMD设备(例如HMD设备200’)来显示锚定到第一人316的文本40’和文本气泡340,其中该其它HMD设备也确定第一人的目标脸的身份。而且,在一些示例中,在第一人离开房间308之后,文本40’和文本气泡340保持被锚定到第一人316且可通过一个或多个HMD设备看见。如此,在房间308之外碰到第一人316的其它人可以从观看文本40’中受益。
在其它示例中,手语程序88可以被配置为从图像数据80中标识手语字母和/或单词。再次参考图3,在一个示例中,第二人320可以通过手语(例如美式手语)与第三人324进行交流。用户304可以注视第二人320,如注视线356所示。如上所述,对应于用户注视的眼睛跟踪数据66可以被眼睛跟踪系统62捕捉并被用于确定用户304正聚焦于第二人320的脸256,或聚焦于在正在做出对应于字母或单词的手语手形的第二人的右手360。
使用图像数据80,手语程序88可以标识对应于由用户右手360形成的手形的手语字母或单词。手语程序88可以将该字母或单词转换成符号文本。随后,可以通过HMD设备200的透明显示器44来显示该符号文本。在当前示例中,第二人的右手360正做着单词“disappointed(失望的)”手势。手语程序88可以解释该手形以及其它形成句子“I’mdisappointedwiththelecture(我对演讲失望)”的手形。该句子可在位于第二人320的头部之上的文本气泡362中被显示为文本40”’。
在其它示例中,唇读程序90可以被配置为从图像数据80中标识目标脸的一个或多个嘴唇和舌头的移动。再次参考图3,在一个示例中,第一用户316可能正对用户304讲话。用户304可能正注视第一人316,如注视线332所示。如上所述,对应于用户注视的眼睛跟踪数据66可以由眼睛跟踪系统62捕捉并被用于确定用户304聚焦于第一人316的脸154。
使用图像数据80,唇读程序90可以标识脸154的一个或多个嘴唇和舌头的移动。唇读程序90可以将该移动转换成唇读文本。随后,可以通过HMD设备200的透明显示器44来显示该唇读文本。
在其它示例中,语音转换程序14可以按跨多个全向话筒224、228、232、236、240以及244重复扫描的方式对在这些话筒处接收的音频输入68进行采样。例如且参考图2,可以以从话筒224开始继续到话筒240、228、232和234并在话筒236处结束的方式从右向左地顺序采样音频输入68。在每次这样的扫描期间,语音转换程序14可以分析在每个话筒处接收到的音频输入68以标识人类语音音频。使用这样的分析,语音转换程序14可以确定从其可以发出人类语音的一个或多个位置。
在其它示例中,用户304的头364的头部位置数据,包括头部姿势和/或头朝向数据,可以被用户聚焦程序86用于确定用户聚焦于的目标脸。这种头部位置数据可以被单独或与如上所述的其它位置信息组合用来确定目标脸。
在其它示例中,转换自目标音频输入的文本可以被保存在计算设备22的大容量存储18中和/或保存在一个或多个其它计算设备的存储子系统中。这样的被保存文本随后可以由HMD设备36和/或由其它计算设备来访问和显示。
如上所述,在各种示例中,计算设备22可以与HMD设备36分开或被集成到HMD设备36中。将可以理解的是,在一些示例中,混合现实显示程序32、脸部检测程序84、用户聚焦程序86、手语程序88、唇读程序90和/或语音转换程序14以及上述的相关的方法和过程中的一个或多个可以位于在除计算设备22之外的计算设备上和/或在除计算设备22之外的计算设备上执行,例如诸如与计算设备22通过网络16通信耦合的服务器20。
图4A和4B示出了用于根据本发明的一实施例来将来自环境的音频输入转换成文本的方法400的流程图。在这个实施例中,在头戴式显示设备的话筒阵列处接收音频输入。参考以上描述并在图1-3中示出的语音转换系统10的软件和硬件组件来提供方法400的以下描述。可以理解,方法400还可在使用其他合适的硬件和软件组件的其他上下文中来执行。
参考图4A,在402,方法400包括捕捉来自环境的图像数据。在406,方法400包括从图像数据中检测一个或多个可能的脸。在410,所述方法400包括使用来自头戴式显示设备的眼睛跟踪系统的眼睛跟踪数据来确定用户所聚焦的目标脸。在414,所述方法400包括使用应用于来自话筒阵列的音频输入的至少一部分的波束成形技术来标识与目标脸相关联的目标音频输入。
在418,所述方法400还可包括从环境中接收来自一个或多个外部源的附加音频输入。在422,所述方法400可以随后包括使用附加音频输入来标识目标音频输入。在426,所述方法400包括将目标音频输入转换成文本。在430,方法还可包括确定目标脸的身份。在434,方法400可包括访问对应于目标脸的身份的语音模式数据。在438,所述方法400可以包括使用该语音模式数据来将目标音频输入转换成文本。
在442,所述方法400包括通过头戴式显示设备的透明显示器来显示文本。在446,方法400可以包括将显示的文本标记到对应于该身份的人。现在参考图4B,在450,方法400可包括将显示的文本地理定位在该环境内。在454,方法400可以进一步包括从图像数据中标识一个或多个手语字母和单词。在458,方法400可包括将字母和单词转换成符号文本。在462,方法400还可包括通过头戴式显示设备的透明显示器来显示符号文本。
在466,方法400可以包括从目标脸的图像数据标识目标脸的一个或多个嘴唇和舌头的移动。在470,方法400可包括将这些移动转换成唇读文本。在474,方法400还可包括通过头戴式显示设备的透明显示器来显示唇读文本。在478,方法400可以包括,当话筒包括全向话筒时,标识在一个或多个全向话筒处接收到语音的位置。在482,方法400随后可以包括使用应用于在一个或多个全向话筒处接收到的语音的波束成形技术来标识与该位置相关联的目标音频输入。
能够理解,方法400是以举例方式提供的,并且不旨在为限制性的。因此,可以理解,方法400可包括相比于图4A和4B中示出的那些步骤而言附加的和/或替换的步骤。并且,可以理解,方法400可用任何适当的次序执行。而且,可以理解,一个或多个步骤可从方法400中省略,而不背离本发明的范围。
图5示意性示出了可以执行上述方法和过程之中的一个或更多个的计算系统500的非限制性实施例。计算设备22可以采取计算系统500的形式。计算系统500以简化形式示出。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算系统500可以采取大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、移动计算设备、移动通信设备、游戏设备等等的形式。如上所述,在一些示例中,计算系统500可被集成到HMD设备中。
如图5所示,计算系统500包括逻辑子系统504和存储子系统508。计算系统500可以任选地包括显示子系统512、通信子系统516、传感器子系统520、输入子系统522和/或图5中未示出的其他子系统和组件。计算系统500还可包括计算机可读介质,其中该计算机可读介质包括计算机可读存储介质和计算机可读通信介质。计算系统500还可以任选地包括其他用户输入设备,诸如例如键盘、鼠标、游戏控制器,和/或触摸屏等等。此外,在某些实施例中,此处所述的方法和过程可被实现为计算机应用、计算机服务、计算机API、计算机库,和/或包括一个或多个计算机的计算系统中的其他计算机程序产品。
逻辑子系统504可包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统504可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造的一部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所希望的结果。
逻辑子系统504可包括被配置成执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核或多核,且在其上执行的程序可被配置为并行或分布式处理。逻辑子系统可以任选地包括遍布两个或更多设备分布的独立组件,所述设备可远程放置和/或被配置为进行协同处理。该逻辑子系统的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
存储子系统508可包括被配置为保持可由逻辑子系统504执行以实现此处所述的方法和过程的数据和/或指令的一个或多个物理持久设备。在实现此类方法和过程时,存储子系统508的状态可以被变换(例如,以保持不同的数据)。
存储子系统508可以包括可移动介质和/或内置设备。存储子系统508可包括光学存储设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁性存储设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。存储子系统508可包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址,以及内容可寻址。
在一些实施例中,可以将逻辑子系统504和存储子系统508的各方面集成在一个或多个共同设备中,通过该一个或多个共同设备,可以至少部分地实施本文所述的功能。这样的硬件逻辑组件可包括:例如,现场可编程门阵列(FPGA)、程序和应用专用集成电路(PASIC/ASIC)、程序和应用专用标准产品(PSSP/ASSP)、片上系统(SOC)系统以及复杂可编程逻辑设备(CPLD)。
图5还示出以可移动计算机可读存储介质524形式的存储子系统508的一方面,该介质可以用于存储可执行以实现此处所述的方法和过程的数据和/或指令。可移动计算机可读存储介质524尤其是可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘的形式。
将明白,存储子系统508包括一个或多个物理持久设备。相反,在一些实施例中,本文描述的指令的各方面可以按暂态方式通过不由物理设备在至少有限持续时间期间保持的纯信号(例如电磁信号、光信号等)传播。此外,与本公开有关的数据和/或其他形式的信息可以经由计算机可读通信介质通过纯信号来传播。
在被包括时,显示子系统512可用于呈现由存储子系统508保存的数据的视觉表示。由于以上所描述的方法和过程改变了由存储子系统508保持的数据,并由此变换了存储子系统的状态,因此同样可以转变显示子系统512的状态以在视觉上表示底层数据的改变。显示子系统512可包括利用几乎任何类型的技术的一个或多个显示设备。可以将此类显示设备与逻辑子系统504和/或存储子系统508一起组合在共享封装中,或者此类显示设备可以是外围触摸显示设备。显示子系统512可包括例如HMD设备36的显示系统48和透明显示器44。
在被包括时,通信子系统516可以被配置成将计算系统500与一个或多个网络和/或一个或多个其他计算设备可通信地耦合。通信子系统516可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统516可被配置为经由无线电话网、无线局域网、有线局域网、无线广域网、有线广域网等进行通信。在一些实施例中,通信子系统可允许计算系统500经由诸如因特网之类的网络发送消息至其他设备和/或从其他设备接收消息。
传感器子系统520可包括被配置成感测不同的物理现象(例如,可见光、红外光、声音、加速度、取向、位置等)的一个或多个传感器,如上所述。传感器子系统520例如可以被配置为向逻辑子系统504提供传感器数据。如上所述,此类数据可包括眼睛跟踪信息、图像信息、音频信息、环境光信息、深度信息、位置信息、运动信息,用户位置信息和/或可被用来执行上述方法和过程的任何其他合适的传感器数据。
在被包括时,输入子系统522可包括一个或多个传感器或用户输入设备(诸如游戏控制器、姿势输入检测设备、语音识别器、惯性测量单元、键盘、鼠标、或触摸屏)或与它们对接。在某些实施例中,输入子系统522可以包括所选的自然用户输入(NUI)部件或与其结合。这种部件可以是集成的或外围的,输入动作的转导和/或处理可以在板上或板外被处理。NUI部件的示例可包括用于语言和/或语音识别的话筒;用于机器视觉和/或姿势识别的红外、色彩、立体显示和/或深度相机;用于运动检测和/或意图识别的头部跟踪器、眼睛跟踪器、加速计和/或陀螺仪;以及用于评估脑部活动的电场感测部件。
术语“程序”可用于描述被实现来执行一个或多个特定功能的语音转换系统10的一个方面。在某些情况下,可以经由执行存储子系统508所保持的指令的逻辑子系统504来实例化这样的程序。将理解,可以从同一应用、服务、代码块、对象、库、例程、API、函数等实例化不同的程序。类似地,相同的模块可由不同的应用、服务、代码块、对象、例程、API、功能等来实例化。术语“程序”意在涵盖单个或成组的可执行文件、数据文件、库、驱动程序、脚本、数据库记录等。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被认为是局限性的,因为多个变体是可能的。此处描述的具体例程或方法可以表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示次序执行、按其他次序执行、并行地执行,或者在某些情况下被省略。同样,上述过程的次序可以改变。
本公开的主题包括各种过程、系统和配置以及此处公开的其他特征、功能、动作和/或属性、以及它们的任一和全部等价物的所有新颖且非显而易见的组合和子组合。
Claims (10)
1.一种语音转换系统,包括:
操作上连接到计算设备的头戴式显示设备,所述头戴式显示设备包括:
包括透明显示器的显示系统;
用于跟踪用户的眼睛的注视的眼睛跟踪系统;
包括被刚性安置在所述头戴式显示设备上以接收音频输入的多个话筒的话筒阵列;以及
用于捕捉图像数据的一个或多个图像传感器;
由所述计算设备的处理器执行的脸部检测程序,所述脸部检测程序被配置为从所述图像数据检测一个或多个可能的脸;
由所述计算设备的处理器执行的用户聚焦程序,所述用户聚焦程序被配置为使用来自所述眼睛跟踪系统的眼睛跟踪数据来确定用户聚焦于的目标脸;以及
由所述计算设备的处理器执行的语音转换程序,所述语音转换程序被配置为使用应用于来自所述话筒阵列的音频输入的至少一部分的波束成形技术来标识与所述目标脸相关联的目标音频输入以供用于语音到文本转换。
2.如权利要求1所述的语音转换系统,其特征在于,所述脸部检测程序还被配置为确定与目标脸相关联的身份,并且所述语音转换程序还被配置为:
将所述目标音频输入转换成文本;以及
通过头戴式显示设备的透明显示器显示所述文本。
3.如权利要求2所述的语音转换系统,其特征在于,显示的文本被地理定位在所述环境内。
4.如权利要求2所述的语音转换系统,其特征在于,所述语音转换程序被进一步配置成:
访问对应于与所述目标脸相关联的所述身份的语音模式数据;以及
使用所述语音模式数据来将所述目标音频输入转换成所述文本。
5.如权利要求2所述的语音转换系统,其特征在于,显示的文本被标记给对应于所述身份的人。
6.一种用于将来自环境的音频输入转换成文本的方法,所述音频输入是在头戴式显示设备的话筒阵列处被接收到的,包括:
从所述环境中捕捉图像数据;
从所述图像数据中检测一个或多个可能的脸;
使用来自所述头戴式显示设备的眼跟踪系统的眼跟踪数据来确定用户所聚焦于的目标脸;以及
使用应用于来自所述话筒阵列的音频输入的至少一部分的波束成形技术来标识与所述目标脸相关联的目标音频输入以供用于语音到文本转换。
7.如权利要求6所述的方法,其特征在于,进一步包括:
从所述环境中接收来自一个或多个外部源的附加音频输入;以及
使用所述附加音频输入来标识所述目标音频输入。
8.如权利要求6所述的方法,其特征在于,进一步包括:
从所述图像数据中标识一个或多个手语字母和单词;
将所述字母和单词转换成符号文本;以及
通过所述头戴式显示设备的透明显示器显示所述符号文本。
9.如权利要求6所述的方法,其特征在于,进一步包括:
从所述目标脸的所述图像数据标识所述目标脸的一个或多个嘴唇和舌头的移动;
将所述移动转换成唇读文本;以及
通过所述头戴式显示设备的透明显示器显示所述唇读文本。
10.如权利要求6所述的方法,其特征在于,所述多个话筒包括全向话筒,并且还包括:
标识在一个或多个所述全向话筒处接收到语音的位置;以及
使用应用于在所述一个或多个全向话筒处接收到的语音的波束成形技术标识与所述位置相关联的目标音频输入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/892,094 US9280972B2 (en) | 2013-05-10 | 2013-05-10 | Speech to text conversion |
US13/892,094 | 2013-05-10 | ||
PCT/US2014/037410 WO2014182976A1 (en) | 2013-05-10 | 2014-05-09 | Speech to text conversion |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105324811A true CN105324811A (zh) | 2016-02-10 |
CN105324811B CN105324811B (zh) | 2021-06-11 |
Family
ID=50842403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480026549.6A Active CN105324811B (zh) | 2013-05-10 | 2014-05-09 | 语音到文本转换 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9280972B2 (zh) |
EP (1) | EP2994912B1 (zh) |
CN (1) | CN105324811B (zh) |
WO (1) | WO2014182976A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228982A (zh) * | 2016-07-27 | 2016-12-14 | 华南理工大学 | 一种基于教育服务机器人的交互式学习系统与交互方法 |
CN107223277A (zh) * | 2016-12-16 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 一种聋哑人辅助方法、装置以及电子设备 |
CN108803871A (zh) * | 2018-05-07 | 2018-11-13 | 歌尔科技有限公司 | 头戴显示设备中数据内容的输出方法、装置及头戴显示设备 |
CN109923462A (zh) * | 2016-09-13 | 2019-06-21 | 奇跃公司 | 感测眼镜 |
CN110536665A (zh) * | 2017-04-19 | 2019-12-03 | 微软技术许可有限责任公司 | 使用虚拟回声定位来仿真空间感知 |
CN110634189A (zh) * | 2018-06-25 | 2019-12-31 | 苹果公司 | 用于在沉浸式混合现实体验期间用户警报的系统和方法 |
CN111033611A (zh) * | 2017-03-23 | 2020-04-17 | 乔伊森安全系统收购有限责任公司 | 使嘴部图像与输入指令关联的系统和方法 |
CN111562815A (zh) * | 2020-05-04 | 2020-08-21 | 北京花兰德科技咨询服务有限公司 | 无线头戴装置及语言翻译系统 |
CN112840398A (zh) * | 2018-10-19 | 2021-05-25 | 微软技术许可有限责任公司 | 将音频内容变换为图像 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10635167B2 (en) * | 2013-05-30 | 2020-04-28 | Umoove Services Ltd. | Smooth pursuit gaze tracking |
US20140129207A1 (en) * | 2013-07-19 | 2014-05-08 | Apex Technology Ventures, LLC | Augmented Reality Language Translation |
US9847082B2 (en) * | 2013-08-23 | 2017-12-19 | Honeywell International Inc. | System for modifying speech recognition and beamforming using a depth image |
JP6148163B2 (ja) * | 2013-11-29 | 2017-06-14 | 本田技研工業株式会社 | 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム |
CN103646587B (zh) * | 2013-12-05 | 2017-02-22 | 北京京东方光电科技有限公司 | 一种智能眼镜及其控制方法 |
US9380374B2 (en) | 2014-01-17 | 2016-06-28 | Okappi, Inc. | Hearing assistance systems configured to detect and provide protection to the user from harmful conditions |
KR20160001465A (ko) * | 2014-06-27 | 2016-01-06 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
KR20160071732A (ko) * | 2014-12-12 | 2016-06-22 | 삼성전자주식회사 | 음성 입력을 처리하는 방법 및 장치 |
JP6738342B2 (ja) * | 2015-02-13 | 2020-08-12 | ヌープル, インコーポレーテッドNoopl, Inc. | 聴力を改善するためのシステムおよび方法 |
US20150319546A1 (en) * | 2015-04-14 | 2015-11-05 | Okappi, Inc. | Hearing Assistance System |
JP2016218268A (ja) * | 2015-05-21 | 2016-12-22 | セイコーエプソン株式会社 | 可搬型表示装置、表示システム、表示方法 |
CH711334A2 (fr) * | 2015-07-15 | 2017-01-31 | Cosson Patrick | Procédé et dispositif pour aider à comprendre un message sensoriel auditif en le transformant en un message visuel. |
CN108352889B (zh) * | 2015-11-09 | 2021-09-10 | 索尼互动娱乐股份有限公司 | 主波束方向确定设备、头戴式显示器、确定方法及存储介质 |
US9779756B2 (en) * | 2015-12-11 | 2017-10-03 | International Business Machines Corporation | Method and system for indicating a spoken word has likely been misunderstood by a listener |
US10695663B2 (en) * | 2015-12-22 | 2020-06-30 | Intel Corporation | Ambient awareness in virtual reality |
US20170186431A1 (en) * | 2015-12-29 | 2017-06-29 | Frank Xavier Didik | Speech to Text Prosthetic Hearing Aid |
KR102450803B1 (ko) * | 2016-02-11 | 2022-10-05 | 한국전자통신연구원 | 양방향 수화 번역 장치 및 장치가 수행하는 양방향 수화 번역 방법 |
US9940932B2 (en) * | 2016-03-02 | 2018-04-10 | Wipro Limited | System and method for speech-to-text conversion |
US9996730B2 (en) * | 2016-03-18 | 2018-06-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vision-assist systems adapted for inter-device communication session |
US20170303052A1 (en) * | 2016-04-18 | 2017-10-19 | Olive Devices LLC | Wearable auditory feedback device |
JP6672114B2 (ja) * | 2016-09-13 | 2020-03-25 | 本田技研工業株式会社 | 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム |
US10187512B2 (en) * | 2016-09-27 | 2019-01-22 | Apple Inc. | Voice-to text mode based on ambient noise measurement |
WO2018098436A1 (en) * | 2016-11-28 | 2018-05-31 | Spy Eye, Llc | Unobtrusive eye mounted display |
US10366691B2 (en) | 2017-07-11 | 2019-07-30 | Samsung Electronics Co., Ltd. | System and method for voice command context |
WO2019147280A1 (en) * | 2018-01-29 | 2019-08-01 | Hewlett-Packard Development Company, L.P. | Language-specific downstream workflows |
CN110310642B (zh) * | 2018-03-20 | 2023-12-26 | 阿里巴巴集团控股有限公司 | 语音处理方法、系统、客户端、设备和存储介质 |
US11854566B2 (en) | 2018-06-21 | 2023-12-26 | Magic Leap, Inc. | Wearable system speech processing |
US11816886B1 (en) * | 2018-06-28 | 2023-11-14 | Meta Platforms Technologies, Llc | Apparatus, system, and method for machine perception |
US10529107B1 (en) | 2018-09-11 | 2020-01-07 | Tectus Corporation | Projector alignment in a contact lens |
US11069368B2 (en) * | 2018-12-18 | 2021-07-20 | Colquitt Partners, Ltd. | Glasses with closed captioning, voice recognition, volume of speech detection, and translation capabilities |
US10832695B2 (en) * | 2019-02-14 | 2020-11-10 | Microsoft Technology Licensing, Llc | Mobile audio beamforming using sensor fusion |
CN113748462A (zh) | 2019-03-01 | 2021-12-03 | 奇跃公司 | 确定用于语音处理引擎的输入 |
US11234073B1 (en) * | 2019-07-05 | 2022-01-25 | Facebook Technologies, Llc | Selective active noise cancellation |
US11328740B2 (en) | 2019-08-07 | 2022-05-10 | Magic Leap, Inc. | Voice onset detection |
US11917384B2 (en) * | 2020-03-27 | 2024-02-27 | Magic Leap, Inc. | Method of waking a device using spoken voice commands |
US20210407203A1 (en) * | 2020-06-29 | 2021-12-30 | Ilteris Canberk | Augmented reality experiences using speech and text captions |
EP4172740A1 (en) * | 2020-06-30 | 2023-05-03 | Snap Inc. | Augmented reality eyewear with speech bubbles and translation |
GB2598333B (en) * | 2020-08-26 | 2023-09-20 | Advanced Risc Mach Ltd | A method and head-mounted unit for assisting a user |
US20230238001A1 (en) * | 2020-09-03 | 2023-07-27 | Spark23 Corp | Eyeglass augmented reality speech to text device and method |
US20240127006A1 (en) * | 2022-10-17 | 2024-04-18 | Snap Inc. | Sign language interpretation with collaborative agents |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6417797B1 (en) * | 1998-07-14 | 2002-07-09 | Cirrus Logic, Inc. | System for A multi-purpose portable imaging device and methods for using same |
CN101101779A (zh) * | 2006-07-06 | 2008-01-09 | 三星电子株式会社 | 数据记录和再现设备以及产生元数据的方法 |
WO2011156195A2 (en) * | 2010-06-09 | 2011-12-15 | Dynavox Systems Llc | Speech generation device with a head mounted display unit |
CN102812417A (zh) * | 2010-02-02 | 2012-12-05 | 寇平公司 | 具有可由运动、身体姿势和/或口头命令控制的可拆卸附件的无线免提计算头戴式送受话器 |
WO2013049248A2 (en) * | 2011-09-26 | 2013-04-04 | Osterhout Group, Inc. | Video display modification based on sensor input for a see-through near-to-eye display |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5574824A (en) | 1994-04-11 | 1996-11-12 | The United States Of America As Represented By The Secretary Of The Air Force | Analysis/synthesis-based microphone array speech enhancer with variable signal distortion |
US7356473B2 (en) | 2005-01-21 | 2008-04-08 | Lawrence Kates | Management and assistance system for the deaf |
US9966075B2 (en) * | 2012-09-18 | 2018-05-08 | Qualcomm Incorporated | Leveraging head mounted displays to enable person-to-person interactions |
-
2013
- 2013-05-10 US US13/892,094 patent/US9280972B2/en active Active
-
2014
- 2014-05-09 CN CN201480026549.6A patent/CN105324811B/zh active Active
- 2014-05-09 WO PCT/US2014/037410 patent/WO2014182976A1/en active Application Filing
- 2014-05-09 EP EP14727362.7A patent/EP2994912B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6417797B1 (en) * | 1998-07-14 | 2002-07-09 | Cirrus Logic, Inc. | System for A multi-purpose portable imaging device and methods for using same |
CN101101779A (zh) * | 2006-07-06 | 2008-01-09 | 三星电子株式会社 | 数据记录和再现设备以及产生元数据的方法 |
CN102812417A (zh) * | 2010-02-02 | 2012-12-05 | 寇平公司 | 具有可由运动、身体姿势和/或口头命令控制的可拆卸附件的无线免提计算头戴式送受话器 |
WO2011156195A2 (en) * | 2010-06-09 | 2011-12-15 | Dynavox Systems Llc | Speech generation device with a head mounted display unit |
WO2013049248A2 (en) * | 2011-09-26 | 2013-04-04 | Osterhout Group, Inc. | Video display modification based on sensor input for a see-through near-to-eye display |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228982A (zh) * | 2016-07-27 | 2016-12-14 | 华南理工大学 | 一种基于教育服务机器人的交互式学习系统与交互方法 |
CN106228982B (zh) * | 2016-07-27 | 2019-11-15 | 华南理工大学 | 一种基于教育服务机器人的交互式学习系统与交互方法 |
CN109923462A (zh) * | 2016-09-13 | 2019-06-21 | 奇跃公司 | 感测眼镜 |
CN109923462B (zh) * | 2016-09-13 | 2021-07-09 | 奇跃公司 | 感测眼镜 |
CN107223277A (zh) * | 2016-12-16 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 一种聋哑人辅助方法、装置以及电子设备 |
WO2018107489A1 (zh) * | 2016-12-16 | 2018-06-21 | 深圳前海达闼云端智能科技有限公司 | 一种聋哑人辅助方法、装置以及电子设备 |
CN111033611A (zh) * | 2017-03-23 | 2020-04-17 | 乔伊森安全系统收购有限责任公司 | 使嘴部图像与输入指令关联的系统和方法 |
CN110536665A (zh) * | 2017-04-19 | 2019-12-03 | 微软技术许可有限责任公司 | 使用虚拟回声定位来仿真空间感知 |
CN108803871A (zh) * | 2018-05-07 | 2018-11-13 | 歌尔科技有限公司 | 头戴显示设备中数据内容的输出方法、装置及头戴显示设备 |
CN110634189A (zh) * | 2018-06-25 | 2019-12-31 | 苹果公司 | 用于在沉浸式混合现实体验期间用户警报的系统和方法 |
CN110634189B (zh) * | 2018-06-25 | 2023-11-07 | 苹果公司 | 用于在沉浸式混合现实体验期间用户警报的系统和方法 |
US11828940B2 (en) | 2018-06-25 | 2023-11-28 | Apple Inc. | System and method for user alerts during an immersive computer-generated reality experience |
CN112840398A (zh) * | 2018-10-19 | 2021-05-25 | 微软技术许可有限责任公司 | 将音频内容变换为图像 |
CN111562815A (zh) * | 2020-05-04 | 2020-08-21 | 北京花兰德科技咨询服务有限公司 | 无线头戴装置及语言翻译系统 |
CN111562815B (zh) * | 2020-05-04 | 2021-07-13 | 北京花兰德科技咨询服务有限公司 | 无线头戴装置及语言翻译系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105324811B (zh) | 2021-06-11 |
EP2994912B1 (en) | 2020-05-13 |
EP2994912A1 (en) | 2016-03-16 |
US9280972B2 (en) | 2016-03-08 |
US20140337023A1 (en) | 2014-11-13 |
WO2014182976A1 (en) | 2014-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105324811A (zh) | 语音到文本转换 | |
JP7348261B2 (ja) | 拡張現実および仮想現実のためのシステムおよび方法 | |
US11663789B2 (en) | Recognizing objects in a passable world model in augmented or virtual reality systems | |
CN110954083B (zh) | 移动设备的定位 | |
CN105190485B (zh) | 混合现实交互 | |
CN106255943B (zh) | 身体锁定增强现实与世界锁定增强现实之间的转换 | |
CN105144022B (zh) | 头戴式显示器资源管理 | |
CN106462233B (zh) | 用于显示设备观看者视线吸引的方法和设备 | |
CN105264548B (zh) | 用于生成增强现实体验的难以察觉的标签 | |
CN102566756B (zh) | 用于扩展现实显示的基于理解力和意图的内容 | |
CN105050670A (zh) | 混合现实体验共享 | |
CN105283824A (zh) | 用图像投影的虚拟交互 | |
CN106104423A (zh) | 姿势参数调节 | |
KR20170041862A (ko) | 유저 안경 특성을 결정하는 눈 추적용 디바이스를 갖는 헤드업 디스플레이 | |
CN105393191A (zh) | 自适应事件识别 | |
KR20160148557A (ko) | 월드 락 디스플레이의 품질 피드백 기법 | |
CN105518574A (zh) | 混合现实分级信息递送 | |
KR20220143171A (ko) | 동공 검출 | |
Coppens | Merging real and virtual worlds: An analysis of the state of the art and practical evaluation of Microsoft Hololens | |
CN105359082A (zh) | 用户接口导航 | |
US10831267B1 (en) | Systems and methods for virtually tagging objects viewed by friends and influencers | |
US20230362573A1 (en) | Audio enhanced augmented reality | |
US20200233489A1 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
US11361473B1 (en) | Including a physical object based on context | |
Das et al. | Future of Virtual Reality and Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |