CN103180893B - 用于提供三维用户界面的方法和系统 - Google Patents
用于提供三维用户界面的方法和系统 Download PDFInfo
- Publication number
- CN103180893B CN103180893B CN201280003480.6A CN201280003480A CN103180893B CN 103180893 B CN103180893 B CN 103180893B CN 201280003480 A CN201280003480 A CN 201280003480A CN 103180893 B CN103180893 B CN 103180893B
- Authority
- CN
- China
- Prior art keywords
- user
- camera
- image
- virtual
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 230000008569 process Effects 0.000 claims abstract description 71
- 230000000007 visual effect Effects 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims description 25
- 238000004088 simulation Methods 0.000 claims 3
- 230000003213 activating effect Effects 0.000 claims 1
- 238000009434 installation Methods 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 31
- 230000002452 interceptive effect Effects 0.000 description 30
- 239000011521 glass Substances 0.000 description 20
- 238000004590 computer program Methods 0.000 description 14
- 238000001914 filtration Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 239000013598 vector Substances 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000005355 Hall effect Effects 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000013558 reference substance Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一些实施例提供了用于显示用户界面的装置,包括:框架、安装在框架上的透镜、第一相机、检测器、以及处理器,该处理器被配置为:处理从第一相机接收的图像和从检测器接收的检测数据;至少通过对图像的处理,检测手相对于三维(3D)空间的手势,三维(3D)空间在第一相机的视场和检测器的检测区域中;通过对图像和检测数据的处理,识别执行手势的手的至少一部分在3D空间中的虚拟X、Y和Z坐标;识别对应于所检测到的手势和手的所述部分的三维位置的命令;以及执行该命令。
Description
技术领域
本发明一般涉及演示,更特别地涉及多媒体演示。
背景技术
有多种设备使得用户能够访问内容。这些设备中许多回放用户要观看的内容。另外,一些回放设备被配置为这样回放内容,使得对于用户而言,回放似乎是在三维空间中进行的。
发明内容
本发明的若干实施例有利地提供了一些优点,使得装置、系统、方法和过程能够用于允许用户与虚拟环境进行交互。这些实施例中的一些提供了被配置为显示用户界面的装置,其中该装置包括:框架;透镜,安装在该框架上,其中该框架被配置为由用户佩戴以使得该透镜的位置在该用户的视线中;第一相机,在该框架的第一位置处安装在该框架上,其中当用户适当地佩戴该框架时,第一相机的位置在用户的视线内,使得第一相机捕获的图像对应于该用户的视线;检测器,安装在该框架上,其中第二检测器被配置为检测当用户适当佩戴该框架时对应于该用户的视线的检测区域中的一个或多个对象;以及处理器,被配置为:处理从第一相机接收的图像和从该检测器接收的检测数据;至少通过对该图像的处理,检测手相对于虚拟三维(3D)空间的手势,该虚拟三维(3D)空间对应于第一相机的视场和该检测器的检测区域;通过对该图像和该检测数据的处理,识别执行该手势的手的至少一部分在该3D空间中的虚拟X、Y和Z坐标;识别对应于所检测到的手势和手的该部分的三维位置的命令;以及执行该命令。
其它实施例提供用于显示用户界面的系统。这些系统包括:框架;透镜,安装在该框架上,其中该框架被配置为由用户佩戴以使得该透镜的位置在该用户的视线中;第一相机,在该框架的第一位置处安装在该框架上,其中当用户适当地佩戴该框架时,第一相机的位置与用户的视线相符,使得第一相机捕获的图像对应于该用户的视线;第二相机,在该框架的不同于第一位置的第二位置处安装在该框架上,其中当用户适当地佩戴该框架时,第二相机的位置与用户的视线相符,使得第二相机捕获的图像对应于该用户的视线;以及处理器,被配置为:处理从第一相机和第二相机接收的图像;通过对该图像的处理,检测手相对于三维(3D)空间的手势,该三维(3D)空间在第一相机和第二相机的视场中;通过对该图像的处理,识别执行该手势的手的至少一部分在该3D空间中的X、Y和Z坐标;识别虚拟选项,该虚拟选项在检测到手的该手势时虚拟地显示在该3D空间中,并且对应于执行该手势的手的所识别的X、Y和Z坐标,使得该虚拟选项的至少一部分被显示为在用户看来位于该X、Y和Z坐标处;识别对应于所识别的虚拟选项和手的所检测到的手势的命令;以及激活对应于所识别的虚拟选项和手的所检测到的手势的命令。
一些实施例提供方法,包括:在显示三维演示的同时,接收由第一相机捕获的第一图像序列,其中第一相机安装在用户佩戴的框架上,使得当用户佩戴该框架时,第一相机的视场在该用户的视场中;从安装在该框架上的检测器接收检测区域内的一个或多个对象的检测数据,该检测区域对应于用户适当佩戴该框架时该用户的视线;处理第一图像序列;处理该检测器检测的检测数据;通过对第一图像序列的处理,检测预定义的非传感器对象和该非传感器对象的预定义的手势;通过对第一图像序列和该检测数据的处理,识别该非传感器对象的至少一部分相对于虚拟三维(3D)空间的虚拟X、Y和Z坐标,该虚拟三维(3D)空间在第一相机的视场和该检测器的检测区域;识别对应于所检测到的手势和该非传感器对象的虚拟3D位置的命令;以及执行该命令。
附图说明
通过结合下面的附图给出的更具体的描述,本发明的若干实施例的上述和其它方面、特征以及优点将变得清楚。
图1示出了根据一些实施例配置为使得用户能够与虚拟环境进行交互的用户交互系统的简化侧面视图。
图2示出了图1的交互系统的简化俯视图。
图3示出了图1的用户交互系统的简化俯视图,其中用户与3D虚拟环境进行交互。
图4A-C示出了根据一些实施例可用于图1的交互系统的用户佩戴护目镜的简化俯视图。
图5A示出了根据一些实施例的用户交互系统的简化框图。
图5B示出了根据一些实施例的用户交互系统的简化框图,包括护目镜,该护目镜在其透镜上显示多媒体内容。
图6A示出了根据一些实施例观看并与3D虚拟环境进行交互的用户的简化俯视图。
图6B示出了图6A的观看并与3D虚拟环境进行交互的用户的侧视图。
图7示出了根据一些实施例使得用户能够与3D虚拟环境进行交互的过程的简化流程图。
图8示出了根据一些实施例使得用户能够与3D虚拟环境进行交互的过程的简化流程图。
图9示出了根据一些实施例用户与通过用户交互系统提供的虚拟环境进行交互的简化俯视图。
图10示出了根据一些实施例被配置为实现提供用户交互虚拟环境的方法、技术、设备、装置、系统、服务器、源等的系统的简化框图。
图11图解了用于实现根据一些实施例提供用户交互虚拟环境的方法、技术、设备、装置、系统、服务器、源等的系统。
在所有这些附图中,对应的附图标记表示对应的组件。本领域技术人员将理解,图中的元件是出于简化和清楚的目的而示出的,没有必要按比例绘制。例如,图中一些元件的尺寸可以相对于其它元件而被放大,以便有助于理解本发明的各个实施例。同样,在商业可用实施例中有用或必要的普通而又容易理解的元件往往没有示出,以便于提供本发明的这些各种实施例的较少妨碍的视图。
具体实施方式
下面的描述不是以限制的意义进行的,而是仅仅用于描述示例性实施例的一般原理的目的。本发明的范围应当参考权利要求来确定。
在整个这一说明书中提到“一个实施例”、“一实施例”、“一些实施例”、“一些实现”或类似的语言,是指结合该实施例描述的具体特征、结构或特性是包括在本发明的至少一个实施例中的。因此,在整个这一说明书中,出现词组“在一个示例”、“在一实施例中”、“在一些实施例中”以及类似语言,都可以但并不必须,是指相同的实施例。
此外,所描述的本发明的特征、结构或特性可以在一个或多个实施例中以任何适当的方式结合。在下面的描述中,提供了许多具体细节,例如变成的示例、软件模块、用户选择、网络事务、数据库查询、数据库结构、硬件模块、硬件电路、硬件芯片等,以提供对本发明的实施例彻底的理解。然而,本领域技术人员将认识到,本发明可以在没有一个或多个具体细节的情况下,或者用其它方法、组件、材料等,来实践。在其它情况下,没有详细示出或描述公知的结构、材料、或操作,以避免遮蔽本发明的方面。
一些实施例提供了向用户提供具有多媒体内容演示的三维(3D)交互的方法、过程、设备或系统。此外,该交互可以使得用户能够使用她或他的手或他们的手中所持有的对象来与虚拟3D显示的环境和/或用户界面进行交互。使用图像捕获和/或其它检测器,可以相对于3D虚拟环境中的位置来识别用户的手,并且可以响应于用户的交互而实现功能和/或命令。此外,在一些实施例中,至少一些功能和/命令是基于手势或手的预定义运动来识别的。
图1示出了根据一些实施例配置为使得用户112能够与3D虚拟环境110进行交互的用户交互系统100的简化侧面视图。类似地,图2示出了图1的交互系统100的简化俯视图,其中用户112与3D虚拟环境110进行交互。参考图1和2,用户112佩戴眼镜或护目镜114(为了简便,下面称为“护目镜”),其使得用户能够观看3D虚拟环境110.护目镜114包括框架116和安装在框架上的一个或多个透镜118。框架116被配置为由用户112佩戴,以将透镜118放置在用户的视场122中。
一个或多个相机和/或检测器124-125也与框架116配合和/或与框架116安装在一起。相机或检测器124-125的位置还被设置为使得当用户适当佩戴框架时,相机的视场和/或检测器的检测区域对应于用户的视场122或者在用户的视场122之内。例如相机124的位置被设置为使得由第一相机捕获的图像对应于用户的视场。在一些实现中,第一相机124位于框架116上,并且检测器125位于框架上。与检测器125协作来使用第一相机124使得用户交互系统100能够识别对象,例如用户的手130、用户手(例如手指)的位置、和/或其它对象(例如非传感器对象),并且进一步识别该对象相对于相机124和/或检测器125的位置的三维(X、Y和Z)坐标,而这可以与所显示的3D虚拟环境110中的X、Y和Z坐标相关联。检测器基本上可以是使得用户交互系统100能够检测用户的手130或其它非传感器对象并且至少辅助确定相对于3D虚拟环境110的X、Y和Z坐标的任何相关检测器。在一些情况下,由于额外的图像处理,与使用两个相机相比,相机124和检测器的使用可以减少一些由用户交互系统100在提供3D虚拟环境和检测用户与该环境的交互时执行的处理。
在其它实施例中,第一相机124的位置在框架116的第一位置处,第二相机125的位置在框架116的与第一位置不同的第二位置处。因此,当使用两个相机时,从已知的两个不同位置产生的两个图像使得用户交互系统100能够确定用户的手130或其它对象的相对位置。此外,在第一和第二相机124-125处于相对于彼此已知的位置的情况下,可以基于由两个相机捕获的图像来确定X、Y和Z坐标。
图3示出了与通过护目镜114观看的3D虚拟环境110进行交互的图1的用户112的简化俯视图。在两个相机124-125与护目镜114相固定或者以其它方式与护目镜114协作的那些实施例中,第一相机124的位置被设置为使得当用户适当佩戴护目镜时,第一相机124的第一视场312与用户的视场122对应、或者在其中和/或与其至少主要部分重叠。类似地,第二相机125的位置被设置为使得第二相机125的视场313与用户的视场122对应、或者在其中和/或与其至少主要部分重叠。此外,当使用检测器或其它传感器替代第二相机125或者与第二相机125协作时,类似地,检测器的检测区或区域313与用户的视场122对应、或者在其中和/或与其至少主要部分重叠。
在一些实施例中,第一和/或第二相机124-125的景深(DOF)316可以被限制以增强对从一个或两个相机取回的图像的检测和/或精度。景深316可以被限定为由第一或第二相机124-125捕获的图像中呈现可接受的清晰度的图像或场景中最近和最远对象之间的距离。第一相机124的景深可以被限制为相对靠近用户112,这可以提供对手130或其它尝试检测的对象更显著的隔离。此外,在有限的景深316下,背景是模糊的,这使得更加容易检测手130,并将其从背景中区分出来。另外,在使用手130或用户的手握持的其它对象的那些实施例中,景深316可以被配置为从用户附近延伸到大致上相当于或者刚刚超过通常用户的手臂长度或通常用户的手臂能够达到的位置。在一些情况下,例如,景深316可以从离相机或框架大约六英寸延伸到大约三或四英尺。这将导致这一范围之外的对象的急剧散焦以及景深之外清晰度的急剧下降,从而将手130分离出来,简化手或其它对象的相对深度坐标(对应于沿着图3的X轴的X坐标)以及沿着Y和Z轴的坐标的检测和确定。要注意的是,对应的3D虚拟环境110不必受此限制。虚拟环境110基本上可以具有任何配置,并且可以根据用户的方向、位置和/或运动而改变。
在一些实施例中,来自第一和第二相机124-125中每一个的图像可以都被评价以识别所感兴趣的对象。例如,当尝试识别预定义对象(例如用户的手130)时,可以通过发现两个图像(左眼图像和右眼图像)中的一致形状来评价图像以识别对象。一旦检测到一致性,可以对预定义和/或对应特征点(例如但不限于手指尖、手指之间的分叉点、手指的弯曲处或关节、手腕和/或其它这样的特征点)执行映射。可以至少部分地测量和使用两个或更多个图像之间的对应点之间的位移来计算从成像位置到那个点的距离(并且在至少一些实施例中有效计算观测位置)。此外,当背景图像具有较少的细节和纹理时,有限的景深使得更容易识别一致性。
此外,一些实施例使用附加的特征来改进对用户的手130或其它非传感器设备的检测。例如,第一和第二相机124-125中的一个或者两者都可以是红外(IR)相机和/或使用红外滤波。类似地,一个或多个检测器可以是IR检测器。这可以进一步减小背景效应等。还可以在框架116中并入和/或与框架116一同安装一个或多个红外发射器或光源320,以在相机124-125的视场内发射红外光。类似地,当使用一个或多个检测器时,这些检测器中的一个或多个可以是红外传感器,或其它可以检测用户的手130的传感器。例如,红外检测器可以用于检测热影像。一般而言,人体比周围环境更温暖。基于期望的热谱对图像进行滤波可以将人体和/或人体的部分(例如手)从周围的无机物中区分出来。另外,在连同红外光源(例如IRLED)使用一个或多个红外相机的一些情况下,即使在黑暗的环境中,尽管对于人眼而言这一视野仍然是黑暗的,但是这一个或多个IR相机也可以精确地捕获用户的手或其它预定义对象。
这一个或多个相机124-125和/或一个或多个其它相机可以进一步提供可用于显示用户的一个或多个手130的图像,例如相对于虚拟环境110的所识别的X、Y和Z坐标和/或真实世界的其它方面叠加。因此,用户112可以相对于虚拟环境110中的一个或多个虚拟对象324看到她/他的手。在一些实施例中,来自第一和第二相机124-125或其它相机的图像被转发到内容源,该内容源执行相关图像处理,并且将用户的手的图像或用户的手的图形表示合并到用户112正在观看的3D演示和虚拟环境110中。
另外,因为相机或检测器极为靠近用户的手130,护目镜114处相机和/或检测器的使用提供了对用户的手130的更精确的检测。由于用户的位置有可能相对于这些相机的放置位置而改变,远离用户112并且指向用户的相机通常必须被配置为具有相对大的景深。类似地,对从指向用户112的各相机到用户的手130的深度的检测会非常困难,这是因为用户和相机位置之间的潜在距离,以及因为与用户的手和远处的相机的位置之间的潜在距离相比,手指或手的运动距离的相对改变非常小,导致可能非常难以精确检测的非常小的角度差。作为替代,在相机124-125安装在护目镜114上的情况下,从相机124-125到用户的手130或手指的距离要小很多,并且从相机到手或手指的距离与手或手指的运动之间的比值要小很多,从而具有大得多的角度间距。
如上所述,一些实施例使用两个相机124-125。此外,两个相机的设置在不同的位置。图4A-C示出了佩戴护目镜114的用户112的简化俯视图,其中每个图中第一和第二相机124-125具有不同的放置位置。例如,在图4A中,第一和第二相机124-125位于框架116的相反侧412-413。在图4B中,第一和第二相机124-125位于框架116的中心416。在图4C中,第一和第二相机124-125被配置在单个图像捕获设备418中。例如,单个图像捕获设备418可以是3D或立体摄录像机(例如索尼公司的HDR-TD10)、3D相机(例如索尼公司的3DBloggies)、或其它具有通过单个设备提供3D图像捕获的特征的这种设备。那些利用一个或多个检测器取代第二相机125或与第二相机125结合的实施例可以类似地定位于单个设备和/或并入单个设备。
一些实施例利用护目镜114来显示回放虚拟3D环境。因此,3D环境的一些或全部直接显示在护目镜114的透镜118上。在其它实施例中,使用眼镜114,使得在用户112看来,呈现在分开的显示器上的图像和/或视频就像在三维空间一样。图5A示出了根据一些实施例的用户交互系统510的简化框图。用户交互系统510包括由用户112佩戴的眼镜514、显示器518以及要在显示器518上显示的多媒体内容(例如图像、视频、游戏图形和/或其它这样的可显示内容)的内容源520。在一些情况下,显示器518和内容源520可以是单个单元,而在另一些实施例中,显示器518与内容源520分离。此外,在一些实施例中,内容源520可以是被配置为向显示器518提供可显示内容的一个或多个设备。例如,内容源520可以是回放本地内容(例如DVD、蓝盘、视频游戏等)或远程内容(例如网络内容、来自其它源的内容等)的计算机、机顶盒、卫星系统、相机、平板电脑、或其它这样的内容源。显示系统516显示视频、图形、图像、图片和/或其它这样的视觉内容。此外,通过与眼镜514协作,显示系统516为用户112显示虚拟三维环境110。
眼镜514包括一个或多个相机124和/或检测器(图5A中仅示出了一个相机)。相机124捕获相机的视场内用户的手130的图像。处理系统可以与眼镜514协作,或者与眼镜514分离,例如独立型处理系统或任何其它系统的部分(例如内容源520或内容系统的部分)。处理系统接收图像以及/或者检测来自相机124-125和/或检测器的信息,确定相对于3D虚拟环境110的X、Y和Z坐标,并基于用户的手130和当前显示的3D虚拟环境110来确定用户与3D虚拟环境110的交互。例如,基于用户的手130的3D坐标,用户交互系统510可以识别用户尝试与所显示的虚拟对象524交互,该虚拟对象524被配置为对用户112呈现为在3D虚拟环境110中,并且在3D虚拟环境110中邻近用户的手的所确定的3D坐标的位置处。虚拟对象524可以显示在眼镜514的透镜上,或者在显示器518上,同时以三维方式呈现在3D虚拟环境110中。
所显示的虚拟对象524基本上可以是任何可以在3D虚拟环境110中显示并呈现的相关对象。例如,该对象可以是用户可选择的选项、按钮、虚拟滑块、图像、字符、武器、图标、写入设备、图形、表格、文本、键盘、指示器、或其它这样的对象。此外,可以显示任何数量的虚拟对象。
在一些实施例中,眼镜514与内容源520或执行检测器和/或图像处理的一些或全部功能的其它相关设备通信。例如,在一些情况下,眼镜可以包括具有一个或多个无线收发器的通信接口,该无线收发器可以向内容源520传送图像和/或检测器数据,使得该内容源可以执行以下处理的一些或全部:确定用户的手130和/或用户的手的位置的相对虚拟坐标、识别手势、识别相应的命令、执行命令和/或其它处理。在眼镜514处执行上述处理中的一些或全部的实施例中,眼镜可以包括一个或多个处理系统和/或与一个或多个处理系统(例如由用户112额外携带或经由有线或无线通信与眼镜514通信的系统)耦接。
图5B示出了根据一些实施例的用户交互系统510的简化框图。用户112佩戴护目镜114,在护目镜的透镜118上显示多媒体内容,使得不需要分立的显示器。护目镜114与提供要由护目镜显示和/或回放的内容的内容源520有线或无线通信。
如上所述,内容源520可以是护目镜114的一部分,或者与护目镜分离。内容源520可以提供内容和/或执行图像和/或检测器处理中的一些或全部。内容源520和护目镜114之间的通信可以经由有线(包括光学)和/或无线通信。
图6A示出了观看3D虚拟环境110并与3D虚拟环境110进行交互的用户112的简化俯视图;图6B示出了图6A的观看3D虚拟环境110并与3D虚拟环境110进行交互的用户112的侧面平面图。参考图6A-B,在3D虚拟环境110中,多个虚拟对象612-622对用户112可见。用户可以与一个或多个虚拟对象进行交互,例如通过由用户的手130虚拟地接触虚拟对象(例如对象612)。例如,虚拟环境110可以是或者可以包括所显示的3D虚拟仪表盘,使得用户能够精确地控制可通过该仪表盘实现的功能。在其它情况下,例如在玩视频游戏或者至少部分地控制视频游戏、游戏的回放和/或游戏中的一个或多个虚拟设备、角色、化身时,用户可以与虚拟环境交互。如上所述,虚拟对象612-622可以显示在护目镜114的透镜118上或者显示在用户112通过眼镜114可见的分立显示器518上。虚拟对象612-622可以显示为对用户112而言呈现在3D虚拟环境110中不同的位置,包括在X、Y和/或Z方向上分布。因此,虚拟对象612-622可以相对于用户112以不同的距离、深度和/或分层显示。
当正在向用户显示演示内容时,用户交互系统100捕获图像。演示期间获得的图像和/或检测器信息被处理以识别用户的手130或其它预定义对象。一旦识别,用户交互系统识别用户的手的至少部分(例如手指630)的相对X、Y和Z坐标,包括用户的手的该部分的虚拟深度(沿着X轴)。基于所识别的用户的手或用户的手的部分在3D虚拟环境110中的位置,用户交互系统100识别用户尝试接触、选择、移动等的一个或多个虚拟对象612-622。此外,用户交互系统100可以识别用户的手正在执行的一个或多个手势,例如选择、推动、抓住、移动、拖拉、试图放大或其它这样的动作。作为响应,用户交互系统可以识别与所识别的手势、用户的手130的位置以及邻近用户的手的位置的对应对象相关联的一个或多个命令。例如,用户112可以选择对象(例如图片或图片组),并移动该对象(例如将该图片或图片组移动到文件或另一个图片组中);转动对象(例如转动虚拟旋钮);按压虚拟按钮;缩放(例如捏拉缩放型操作);滑动虚拟滑块指示符;滑动对象;推或拉对象;卷起、猛击键盘条目、目标和/或激活虚拟武器;移动机器人或采取其它动作。类似地,用户可以控制环境,例如转变为不同的控制、不同的所显示控制台或用户界面、不同的仪表盘;激活不同的应用或其它这样的控制,以及更复杂的导航(例如内容搜索、音频和/或视频搜索、玩视频游戏等)。
在一些实施例中,音频系统640可以与护目镜114协作和/或与护目镜114安装在一起。在一些实施例中,音频系统640可以配置为检测音频内容,例如由用户112说出的词语、指令、命令等。音频系统640邻近放置可以使得能够进行精确的音频检测,并且容易与背景噪声和/或来自演示的噪声区分开。此外,可以在护目镜114处、部分的在护目镜处和/或远离护目镜处,执行对音频的处理。例如,可以由用户说出并由音频系统640检测诸如词语发音的音频命令,例如关闭、移动、打开、下一个、合并、以及其它这样的命令,以实现命令。
图7示出了根据一些实施例使得用户能够与3D虚拟环境进行交互的过程710的简化流程图。在步骤712,例如从第一相机124接收一个或多个图像、一系列图像和/或视频。在步骤714,从与护目镜114协作的检测器接收检测器数据。可以额外地接收和利用其它信息,例如其它相机信息、运动信息、位置信息、音频信息等。在步骤716,处理来自第一相机124的一个或多个图像。这个处理可以包括解码、解压缩、编码、压缩、图像处理、以及其它这样的处理。在步骤720,在这一个或多个图像中识别用户的手或其它非传感器对象。在步骤722,在图像处理中额外地识别一个或多个预定义的手势。
在步骤724,处理所检测到的数据,通过与图像数据协作来检测用户的手或非传感器对象,并且确定位置信息。在步骤726,确定用户的手130的至少部分相对于虚拟环境110的虚拟X、Y和Z坐标(例如基于所确定的位置和手势信息确定手指尖的位置)。在步骤728,基于位置信息、手势信息、虚拟对象的相对位置以及其它这样的因素,识别一个或多个要执行的命令。再一次地,命令可以基于用户的手在3D虚拟环境中被识别的坐标附近的位置处正被虚拟显示的一个或多个虚拟对象。在步骤730,执行这一个或多个命令。需要注意的是,在一些情况下,这一个或多个命令可以依赖于演示的当前状态(例如基于检测到手势时电影回放的时间点、正在回放视频游戏的那一部分等)。类似地,所实现的命令可以依赖于后续动作,例如用户响应于正在执行的命令而采取的后续动作。附加地或者可替换地,一些手势和/或做出该手势的对应位置可以与全局命令相关联,该全局命令可以与演示和/或用户交互系统100的操作状态无关地执行。
如上所述,在步骤716,该过程执行图像处理以识别用户的手130和/或其它对象,并跟踪手的运动。在一些实现中,图像处理可以包括噪声消减过滤处理(例如使用二维低通滤波器以及通过中值滤波器进行的隔离点去除等),附加地,随后可以进行二维差分滤波,二维差分滤波可以高亮突出用户的手或其它预定义对象的轮廓线。附加地或者可替换地,可以施加二进制滤波,在一些情况下,二进制滤波可以用于产生黑白轮廓线图像。通常轮廓线是粗线和/或粗的区域。相应地,一些实施例执行修形滤波(shavingfilter)(例如黑色区域延伸进入白色区域,而不将一个黑色区域连接到另一个黑色区域,那样将打断白线),以便使线条和/或区域变细。
在一些实施例中,图像处理还可以包括特征检测算法,其中追溯线条,并观测切向矢量的变化,检测矢量快速变化的特征点,这可以指示角落、末端等的位置。例如,这些特征点可以是手指尖、手指之间的分叉或交叉点、手的关节等。可以通过邻近关系将特征点进一步分组,并通过例如旋转和缩放与参考物匹配。可以通过将多个数据的组映射到矢量空间来进一步执行图案匹配,并且通过这个空间中两个矢量之间的距离来测量相似性。一旦检测到用户的手或其它对象,可以在时间上连续的跟踪该特征点,以检测手的运动。在一些实施例中,一个或多个手势被定义为特征点的运动矢量(例如特征点随时间变化的位移)。例如,可以通过特征点的运动矢量来确定手指运动;可以通过对多个特征点组的运动矢量等进行求和来检测摆手运动。在一些实施例中,在护目镜的情况下,动态精确度可以通过显示屏幕和相机位置之间的相对静态关系来提高。在透视眼镜上安装一个或多个相机(即,显示器位于眼镜之外)的情况下,还可以例如通过检测显示器的特征点(例如四个角落、四个侧边、一个或多个反射设备、一个或多个LED、一个或多个IRLET)来检测远处的显示器。手势位置和虚拟3D环境的静态精确度可以通过施加校准(例如,在开始之前或者在使用系统的同时,系统可以请用户用手指接触空间中的虚拟3D参考点)来进一步改进。类似地,可以附加地或者可替换地使用预定义的动作(例如接触单个虚拟按钮(例如“播放”或“继续”按钮))。上面的处理可以对相机124-125捕获的每个图像和/或图像系列执行。
图8示出了根据一些实施例使得用户能够与3D虚拟环境进行交互的过程810的简化流程图,其中该系统采用两个或更多个相机124-125来捕获用户的手130或其它非传感器对象的图像。在步骤812,从第一相机124接收一个或多个图像、图像序列和/或视频。在步骤814,从第二相机125接收一个或多个图像、图像序列和/或视频。在步骤816,处理来自第一和第二相机124-125的一个或多个图像。
在步骤820,在这一个或多个图像中识别用户的手或其它非传感器对象。在步骤822,附加地通过图像处理识别一个或多个预定义的手势。在步骤824,识别用户的手130相对于护目镜114和虚拟环境110的虚拟X、Y和Z坐标。在步骤826,识别与该预定义的手势和手的位置的相对虚拟坐标相关联的一个或多个命令。在步骤828,执行所识别的一个或多个命令。
再一次地,用户交互系统采用第一和第二相机124-125和/或检测器,以便不只识别Y和Z坐标,而且还识别用户的手130的虚拟深度坐标(X坐标)。用户的手的位置结合所识别的手势使得用户交互系统100能够精确地解释用户的意图,并且采取适当的动作以使得用户能够与用户交互系统100和/或演示的回放进行虚拟的交互,或者对其进行控制。
一些实施例还延伸到虚拟环境110,以延伸超过用户的视场122或视景。例如,一些实施例将虚拟环境延伸到用户的即时视场122之外,使得用户可以转动他或她的头以观看虚拟环境110的额外的部分。可以通过一个或多个处理和/或设备来检测用户的运动。例如,可以执行对来自护目镜114上的一个或多个相机124-125的序列图像的处理。可以使用所检测和捕获到的护目镜114和/或用户112的运动来产生通过逐个图像或逐个帧地收集的位置和方向数据,该数据可以用于计算用户和/或护目镜的运动的许多物理性质,例如沿任何轴的加速度和速度,以及倾斜、前倾、横摇、侧倾以及遥测点。
附加地或者可替换地,在一些情况下,护目镜114可以包括一个或多个惯性传感器、罗盘设备和/或其它可以帮助识别和/或量化用户的运动的相关设备。例如,护目镜114可以被配置为包括一个或多个加速计、陀螺仪、倾斜传感器、运动传感器、近距离传感器、其它类似设备或它们的组合。作为例子,可以从在三或四个点处例如通过弹簧、电阻应变计材料、光子传感器、磁性传感器霍尔效应设备、压电器件、电容传感器等弹性耦接的物质来检测。
在一些实施例中,其它相机或其它传感器可以跟踪用户的运动,例如多媒体或内容源520处一个或多个相机,和/或与多媒体源(例如,通过使得用户能够玩交互式视频游戏的游戏设备跟踪用户的运动的相机)协作。可以在护目镜114上包括可用于识别护目镜并跟踪护目镜的运动的一个或多个灯、灯阵列或其它这样的可检测对象。
因此,在一些实施例中,虚拟环境110可以延伸超过用户的视场122。类似地,虚拟环境110可以依赖于用户在看什么和/或用户的方向。
图9示出了根据一些实施例与虚拟环境110交互的用户112的简化俯视图。如图所示,虚拟环境延伸超过用户的视场122。在图9的示例演示中,多个虚拟对象912-916在用户的视场122中,多个虚拟对象917-918部分地在用户的视场中,同时仍有一个或多个其它虚拟对象919-924在用户的即时视场122之外。通过跟踪用户的运动和/或护目镜114的运动,所显示的虚拟环境110可以使得用户能够观看虚拟环境110的其它部分。在一些情况下,可以显示一个或多个指示虚拟环境110延伸超过用户的视场122的指示符(例如箭头等)。因此,在一些情况下,虚拟环境可以延伸以完整地绕用户112一周和/或在X、Y和Z方向上完整地围绕用户。类似地,由于所观看的是虚拟环境,虚拟环境110可以根据用户的位置、视场122的方向、所检测到的预定义的手势(例如用户的手130的位置和由用户执行的手势)和/或演示的上下文,潜在地显示多于三个方向轴和/或假设的方向。
此外,在一些情况下,虚拟环境可以依赖于用户的位置和/或所检测到的用户执行的手势而改变。例如,护目镜114可以识别,或者与护目镜通信的系统可以确定,用户正在看多媒体回放设备(例如通过图像检测和/或与多媒体回放设备的通信),并因此显示使得用户能够与多媒体回放设备交互的虚拟环境。类似地,护目镜114可以检测,或者与护目镜关联的系统可以确定,用户当前正在看电器,例如冰箱。护目镜114基于图像识别和/或与冰箱通信,可以调节虚拟环境110,并且显示选项和/或与冰箱相关的信息(例如内部温度、传感器数据、冰箱里的东西(如果知道的话)、和/或其它这样的信息)。类似地,用户可以通过虚拟环境来激活设备和/或控制设备。例如,虚拟环境可以显示用于控制电器、机器人、医疗设备等的虚拟控制,使得电器、机器人等根据用户的手130的所识别的位置和所检测到的预定义的手势来采取适当的动作。作为具体的例子,可以由医生通过医生与向医生显示相关信息、图像和/或选项的虚拟环境110的交互来控制用于执行医学外科手术的机器人式外科设备。此外,医生甚至不需要在与患者和机器人相同的位置。在其它情况下,用户可以激活整个家庭控制台,并且选择用户想要与其交互的期望的设备。
类似地,当多个显示器(例如TV、计算机监视器等)可见时,在一些情况下,使用相机和/或方向信息可以使得用户交互系统100能够识别用户当前正在看那个显示器,并且调节与所感兴趣的显示器相关的虚拟环境、命令、仪表盘等。附加地或者可替换地,用户112可以执行对虚拟对象的移动命令,例如从一个显示器移动到另一个显示器,从一个文件夹移动到另一个文件夹等。在其它情况下,例如当观看的内容来自多个监控摄像机时,可以根据用户正在观看哪个监控摄像机来显示不同的控制台、控制和/或信息。
在一些实施例中,例如当护目镜114禁止用户看到她/他自己的手和/或禁止用户的视野超出透镜118时,虚拟环境可以在虚拟环境中附加地显示图形信息(例如用户的手130)。用户的手或其它真实世界内容可以叠加在其它对用户可见的内容上。类似地,虚拟环境可以包括显示虚拟对象之外真实世界中的一些或全部和/或用户的手,使得用户可以看到如果她或他移除护目镜将会看到什么。在一些实施例中,真实世界的显示可以通过由第一和第二相机124-125之一或两者和/或由单独的相机捕获的图像来实现,并且可以使得用户能够仍在佩戴着护目镜的同时四处运动。
图10示出了根据可以用于实现用户交互系统100或提供上面或下面描述的用户交互式虚拟环境的其它方法、技术、设备、器件、系统、服务器、源等中的一些或全部的一些实施例的系统1010的简化框图。系统1010包括一个或多个相机或检测器1012、检测器处理系统1014、图像处理系统1016、手势识别系统1020、3D坐标确定系统、护目镜或眼镜1024、存储器和/或数据库1026、以及控制器1030。一些实施例还包括显示器1032、图形发生系统1034、方向跟踪系统1036、具有一个或多个收发器的通信接口或系统1038、音频检测系统1040和/或其它这样的系统。
相机和/或检测器1012检测用户的手或其它预定义的对象。在一些情况下,检测可以包括IR运动传感器检测、定向热传感器检测、和/或包括两个定向光传感器并且能够逐步捕获两个定向图像的系列的相机。在一些实施例中,检测器处理系统1014处理来自一个或多个检测器例如IR运动传感器的信号。并且在许多情况下,检测器处理系统1014具有内部信号阈值,以将检测限制于大约用户手臂的长度,并因此检测大约手臂距离内的对象或用户的手。如上所述,图像处理系统1016提供各种图像处理功能,例如但不限于滤波(例如噪声滤波、双向差分滤波、二进制滤波、线条细化滤波、特征点检测滤波等)以及其它这样的图像处理。
手势识别系统1020检测特征点,并且检测用于用户的手指和手的图案、或者预定义的对象的其它特征。此外,手势识别系统随时间跟踪特征点,以检测手势运动。在一些实施例中,3D坐标确定系统比较来自第一相机的一个或多个图像的特征点和来自第二相机的一个或多个图像的特征点,并且测量对应特征点对之间的位移。该位移信息至少部分地可以用于计算特征点位置的深度或距离。
如上所述,护目镜1024与至少一个相机和检测器或第二相机协作。基于由相机和/或检测器1012捕获的信息,检测器处理系统1014和图像处理系统1016识别用户的手,并且向3D坐标确定系统1022和手势识别系统1020提供相关信息,以识别在3D虚拟环境中的相对位置和相对于所显示的虚拟环境110的手势。在一些情况下,图像处理可以执行加法处理,以改善所捕获的图像和/或该图像中正被捕获的对象的质量。例如,可以执行图像稳定化,可以执行照明调整,以及其它这样的处理。护目镜1024可以具有右侧显示单元和左侧显示单元,它们在观看者面前展示三维图像。在使用眼镜的那些情况下,电信地将外部显示器1032静态地放置,而用户给自己确定位置以通过眼镜观看显示器。
存储器和/或数据库1026基本上可以是任何相关的计算机和/或处理器可读存储器,位于护目镜1024和/或控制器1030本地,或者远离护目镜1024和/或控制器1030,并且通过通信信道(经由有线连接或无线连接)来访问。此外,存储器和/或数据库基本上可以存储任何相关信息,例如但不限于,手势、命令、图形、图像、内容(例如多媒体内容、文本内容、图像、视频、图形、动画内容等等)、历史信息、用户信息、用户配置信息、以及其它这样的信息和/或内容。另外,存储器1026可以存储图像数据、中间图像数据、用于处理运动矢量的多帧图像、用于特征点图案匹配的图案矢量数据等等。
显示器1032可以显示对该用户或其它用户(例如佩戴着辅助显示3D内容的眼镜1024的用户)可见的图形、电影、图像、动画和/或其它内容。图形发生系统1034基本上可以是任何这样的图形发生器,其用于根据例如具有视频游戏内容和/或其它这样的内容的代码等产生图形,以便在护目镜1024或外部显示器1032上显示,以展示合成的三维图像。
在一些实施例中,可以实现方向跟踪系统1036,以跟踪用户112和/或护目镜1024的运动。在一些实施例中,方向跟踪系统可以通过一个或多个方向传感器、相机或其它这样的设备和/或它们的组合来跟踪护目镜114的方向。例如,在一些实施例中,包括有一个或多个包括三个X、Y和Z线性运动传感器的方向传感器。可以附加地或可替换地使用一个或多个轴旋转角向运动传感器(例如三个X、Y和Z轴旋转角向运动传感器)。使用相机可以使得能够通过跟踪静态对象如显示屏幕(例如四个角落特征点)来检测方向的改变。
一些实施例还包括一个或多个接收器、发送器和/或收发器1038,以提供组件之间的内部通信,和/或诸如护目镜114、游戏控制台或设备、外部显示器、外部服务器或经网络访问的数据库之间的外部通信,或其它这样的通信。例如,收发器1038可以用于例如通过局域网络、因特网或其它这样的网络来与其它设备或系统通信。此外,收发器1038可以配置为提供有线、无线、光学、光纤线缆或其它相关通信。一些实施例附加地包括一个或多个音频检测系统,音频检测系统可以检测来自用户的音频指令和/或命令,并且可以辅助解释和/或识别用户期望的与系统1010和/或虚拟环境110的交互。例如,一些实施例在护目镜114的框架116上合并一个或多个麦克风,和/或与一个或多个麦克风协作。音频处理可以通过音频检测系统1040来执行,这可以在护目镜114处、部分在护目镜处或远离护目镜而执行。附加地或可替换地,在一些情况下,音频系统可以回放要由用户(例如通过耳机、扬声器等)听到的音频内容。此外,音频检测系统1040可以根据方向跟踪,对多个音频信道提供不同的衰减,和/或对多信道音频应用衰减矩阵,以便旋转声音空间并使声音空间与虚拟空间相匹配。
这里描述的方法、技术、系统、设备、服务、服务器、源等可以在许多不同类型的设备和/或系统上使用、实现和/或运行。参考图11,其中示出了根据一些实施例可以用于任何这样的实现的系统1100。系统1100的一个或多个组件可以用于实现上面或下面提到的任何系统、装置或设备,或者这样的系统、装置或设备的部分,例如上面或下面提到的用户交互系统100、系统1010、眼镜或护目镜114、1024、第一或第二相机124-125、相机或检测器1012、显示系统516、显示器518、内容源520、图像处理系统1016、检测器处理系统1014、手势识别系统1020、3D坐标确定系统1022、图形发生系统1034、控制器1030、方向跟踪系统1036等等中的任何一个。然而,当然并不要求必须使用系统1100或其任何部分。
作为示例,系统1100可以包括控制器或处理器模块1112、存储器1114、用户接口1116以及一个或多个通信链接、通路、总线等1120。电源(未示出)包括在系统1100中,或与其耦接。控制器1112可以通过一个或多个处理器、微处理器、中央处理单元、逻辑器件、局部数字存储器、固件和/或其它控制硬件和/或软件来实现,并且可以用于执行或辅助执行这里描述的方法和技术的步骤,并且控制各种通信、程序、内容、列表、服务、接口等。用户接口1116可以使得用户能够与系统1100进行交互,并且从该系统接收信息。在一些情况下,用户接口1116包括显示器1122和/或一个或多个用户输入1124,例如遥控器、键盘、鼠标、轨迹球、游戏控制器、按键、触摸屏等,这可以系统1100的部分,或者与系统1100有线或无线耦接。
典型地,系统1100还包括一个或多个通信接口、端口、收发器1118等,使得系统1100能够通过分布式网络、局域网络、互联网、通信链路1120、其它网络或与其它设备的通信信道、和/或其它这样的通信方式进行通信。此外,收发器1118可以被配置为用于有线、无线、光学、光纤线缆或其它这样的通信配置或这样的通信的组合。
系统1100包括具有控制器1112的控制和/或基于处理器的系统的例子。再一次地,控制器1112可以通过一个或多个处理器、控制器、中央处理单元、逻辑器件、软件等来实现。此外,在一些实现中,控制器1112可以提供多处理器功能性。
可以由控制器1112访问的存储器1114典型地包括由至少一个控制器1112访问的一个或多个处理器可读和/或计算机可读介质,并且可以包括易失性和/或非易失性介质,例如RAM、ROM、EEPROM、快闪存储器和/或其它存储技术。此外,存储器1114被示出为在系统1110内部;然而,存储器1114可以是内部存储器、外部存储器或者内部和外部存储器的结合。外部存储器基本上可以是任何相关存储器,例如但不限于,快闪存储器安全数字(SD)卡、通用串行总线(USB)盘或驱动器、其它存储卡、硬盘驱动器和其它这种存储器或这些存储器的组合中的一个或多个。存储器1114可以存储代码、软件、可执行文件、脚本、数据、内容、多媒体内容、手势、坐标信息、3D虚拟环境坐标、程序编制、程序、媒体流、媒体文件、文本内容、标识符、日志或历史数据、用户信息等等。
上面或下面描述的一个或多个实施例、方法、过程、方案和/或技术可以在一个或多个可由基于处理器的系统执行的计算机程序中实现。作为示例,这样的基于处理器的系统可以包括基于处理器的系统1100、计算机、机顶盒、电视机、具有IP功能的电视、蓝盘播放器、具有IP功能的蓝盘播放器、DVD播放器、娱乐系统、游戏控制台、图形工作站、写字板等。这样的计算机程序可以用于执行上面或下面描述的方法、过程和/或技术的各个步骤和/或特征。也就是说,计算机程序可以被适配为使得或者配置基于处理器的系统执行并实现上面或下面描述的功能。例如,这样的计算机程序可以用于实现上面或下面描述的用于使得一个或多个用户能够与3D虚拟环境110交互的步骤、过程或技术的任何实施例。作为另一个例子,这样的计算机程序可以用于实现任何类型的工具或类似的应用,该工具或应用使用上面或下面描述的实施例、方法、过程、方案和/或技术中的任何一个或多个。在一些实施例中,可以使用计算机程序中的程序代码模块、循环、子例程等来执行上面或下面描述的方法、过程和/或技术。在一些实施例中,计算机程序可以存储或具体化在计算机可读存储或记录介质上,例如这里描述的任何计算机可读存储或记录介质。
因此,一些实施例提供处理器或计算机程序产品,包括:介质,被配置为具体化要输入到处理器或计算机的计算机程序;计算机程序,具体化在该介质中,被配置为使得处理器或计算机执行或履行包括这里描述的实施例、方法、过程、方案和/或技术中的任何一个或多个中涉及的任何一个或多个步骤的步骤。例如,一些实施例提供一个或多个计算机可读存储介质,存储一个或多个计算机程序,以用于计算机模拟,该一个或多个计算机程序被配置为使计算机和/或基于处理器的系统执行如下步骤,包括:在显示三维演示的同时,接收由第一相机捕获的第一图像序列,其中第一相机安装在用户佩戴的框架上,使得当用户佩戴该框架时,第一相机的视场在该用户的视场中;从安装在该框架上的检测器接收检测区域内的一个或多个对象的检测数据,该检测区域对应于用户适当佩戴该框架时该用户的视线;处理第一图像序列;处理该检测器检测的检测数据;通过对第一图像序列的处理,检测预定义的非传感器对象和该非传感器对象的预定义的手势;通过对第一图像序列和该检测数据的处理,识别该非传感器对象的至少部分相对于虚拟三维(3D)空间的虚拟X、Y和Z坐标,该虚拟三维(3D)空间在第一相机的视场和该检测器的检测区域中;识别对应于所检测到的手势和该非传感器对象的虚拟3D位置的命令;以及执行该命令。
其它实施例提供一种或多种计算机可读存储介质,存储一个或多个计算机程序,被配置为用于计算机模拟,该一个或多个计算机程序被配置为使得计算机和/或基于处理器的系统执行如下步骤,包括:使得显示三维演示;在显示三维演示的同时,接收由第一相机捕获的第一图像序列,其中第一相机安装在用户佩戴的框架上,使得当用户佩戴该框架时,第一相机的视场在该用户的视场中;在显示三维演示的同时,接收由第二相机捕获的第二图像序列,其中第二相机安装在该框架上,使得当用户佩戴该框架时,第二相机的视场在该用户的视场中;处理第一图像序列和第二图像序列两者;通过对第一图像序列和第二图像序列的处理,检测预定义的非传感器对象和该非传感器对象的预定义的手势;通过对所检测到的手势的处理,确定该非传感器对象的至少部分相对于第一相机和第二相机的三维坐标;识别对应于所检测到的手势和该非传感器对象的三维位置的命令;以及执行该命令。
因此,用户112可以与虚拟环境110交互,以基于所检测到的用户的手130或其它预定义的对象相对于该虚拟环境的位置和所检测到的手势,执行各种功能。这可以使得用户基本上能够通过虚拟环境执行任何功能,包括执行远离用户的任务。例如,用户可以通过用户的手的运动(例如,通过伸出手拾起虚拟显示的对象)操纵机械臂(例如军队或防爆小组情形、制造情形等),使得机器人采取适当的行动(例如机器人实际拾起真实的对象)。在一些情况下,例如,由于所控制的设备的能力(例如,机器人可能只有两个“手指”),对用户可用的行动可能个有限的。然而,在其它情况下,该处理知道机器人的配置和/或几何结构,并且可以从所检测到的用户的手130的运动进行外推,以识别该机器人可以执行的相关运动(例如,因为机器人的能力、几何结构而导致的可能命令的限制)。
运载工具和/或飞机也可以通过用户的虚拟交互以虚拟控制进行控制。这可以使得对运载工具或飞机的控制能够立即可升级,这是因为控制是虚拟的。类似地,可以基于演示和/或提供给操作者的其它信息远离运载工具或飞机来执行控制。类似地,虚拟交互可以用于医疗应用。例如,图像可以叠加在患者身上,和/或机器人应用可以用于采取行动(例如,在稳定的情况下,必须采取防抖操作)。
另外,一些实施例可以用于教育,例如提供远程教育体验。学生不必和老师在同一个房间中,但是所有的学生看到相同的事物,并且远处的学生可以虚拟地写在黑板上。类似地,用户可以与书本(例如课本)虚拟地交互。可以提供附加的控制(例如,显示曲线,同时使得用户能够操纵参数以看到这将如何影响曲线)利用相机124-125或护目镜114上的其它相机,可以识别课本,和/或正在观看课本的哪一页。虚拟环境可以提供高亮文本,使得用户能够给文本加高亮,创建大纲,虚拟地注释课本和/或其它行动,同时存储注释和/或标记。
本说明书中描述的许多功能单元已被标记为系统、设备或模块,以便更具体地强调她们的实现独立性。例如,系统可以实现为硬件电路,包括定制VLSI电路或门阵列、现成半导体如逻辑芯片、晶体管或其它分立组件。系统还可以在可编程硬件设备中实现,例如现场可编程门阵列、可编程阵列逻辑、可编程逻辑器件等。
系统、设备、或模块还可以以用于由各种类型的处理器执行的软件来实现。例如,可执行代码的标识系统可以包括一个或多个例如可以组织为对象、过程或函数的计算机指令的物理或逻辑块。然而,所标识的模块的可执行文件不需要物理上在一起,而是可以包括存储在不同位置的全异指令,当逻辑上链接在一起时,其包括该模块,并且实现该模块的规定的目的。
事实上,可执行代码的系统可以是单条指令,或者许多指令,并且可能甚至分布在若干不同的代码段中,不同的程序中,跨着若干存储设备。类似地,操作数据可以被识别,并且在此图解为在系统中,并且可以以任何合适的形式具体化,并且任何合适类型的数据结构组织。操作数据可以聚集为单个数据集,或者可以分布不同位置,包括分布在不同存储设备上,并且至少部分地可以仅仅作为系统或网络上的电子信号而存在。
尽管通过具体的实施例、例子及其应用描述了这里公开的发明,但是本领域技术人员可以对其做出许多修改和变型,而不脱离权利要求书中阐明的本发明的范围。
Claims (14)
1.一种显示用户界面的装置,该装置包括:
框架;
透镜,安装在所述框架上,其中所述框架被配置为由用户佩戴以使得所述透镜的位置在用户的视线中;
第一相机,在所述框架的第一位置处安装在所述框架上,其中当用户适当地佩戴所述框架时,所述第一相机的位置在用户的视线内,使得所述第一相机捕获的图像对应于用户的视线;
检测器,安装在所述框架上,其中检测器被配置为检测当用户适当佩戴所述框架时对应于用户的视线的检测区域中的一个或多个对象;以及
处理器,被配置为:
处理从所述第一相机接收的图像和从所述检测器接收的检测数据;
至少通过对所述图像的处理,检测手相对于虚拟三维(3D)空间的手势,所述虚拟三维(3D)空间对应于所述第一相机的视场和所述检测器的检测区域;
通过对所述图像和所述检测数据的处理,识别执行所述手势的手的至少部分在所述3D空间中的虚拟X、Y和Z坐标;
识别对应于所检测到的手势和手的所述部分的三维位置的命令;以及
执行所述命令,
其中该处理器还被配置为:
识别虚拟选项,所述虚拟选项在检测到手的所述手势时虚拟地显示在所述3D空间中,并且对应于执行所述手势的手的所识别的X、Y和Z坐标,使得所述虚拟选项的至少部分被显示为在用户看来位于所述X、Y和Z坐标附近,
其中所述处理器在识别所述命令时还被配置为识别对应于所识别的虚拟选项和手的所检测到的手势的命令,并且所述处理器在执行所述命令时还被配置为激活对应于所识别的虚拟选项和手的所检测到的手势的命令。
2.根据权利要求1的装置,其中所述检测器是红外检测器,并且处理检测数据包括:根据从所述红外检测器检测到的检测数据来识别至少一个虚拟深度坐标。
3.根据权利要求1的装置,其中所述检测器是在所述框架的不同于第一位置的第二位置处安装在所述框架上的第二相机,所述检测数据包括第二图像,并且其中所述处理器还被配置为处理从所述第一相机和所述第二相机接收的第一图像和第二图像。
4.一种显示用户界面的系统,该系统包括:
框架;
透镜,安装在所述框架上,其中所述框架被配置为由用户佩戴以使得所述透镜的位置在用户的视线中;
第一相机,在所述框架的第一位置处安装在所述框架上,其中当用户适当地佩戴所述框架时,所述第一相机的位置与用户的视线相符,使得所述第一相机捕获的图像对应于用户的视线;
第二相机,在所述框架的不同于第一位置的第二位置处安装在所述框架上,其中当用户适当地佩戴所述框架时,所述第二相机的位置与用户的视线相符,使得所述第二相机捕获的图像对应于用户的视线;以及
处理器,被配置为:
处理从所述第一相机和所述第二相机接收的图像;
通过对所述图像的处理,检测手相对于三维(3D)空间的手势,所述三维(3D)空间在所述第一相机和所述第二相机的视场中;
通过对所述图像的处理,识别执行所述手势的手的至少部分在所述3D空间中的X、Y和Z坐标;
识别虚拟选项,所述虚拟选项在检测到手的手势时虚拟地显示在所述3D空间中,并且对应于执行手势的手的所识别的X、Y和Z坐标,使得所述虚拟选项的至少部分被显示为在用户看来位于所述X、Y和Z坐标处;
识别对应于所识别的虚拟选项和手的所检测到的手势的命令;以及
激活对应于所识别的虚拟选项和手的所检测到的手势的命令。
5.根据权利要求4的系统,其中所述第一相机被配置为具有小于四英尺的景深。
6.根据权利要求5的系统,其中所述第一相机被配置为具有定义为从距离所述相机六英寸之处延伸的小于四英尺的景深。
7.根据权利要求5的系统,还包括:
红外光发射器,安装在所述框架上,并且被定位为将红外光发射到所述第一相机和所述第二相机的视场中,其中,所述第一相机和所述第二相机包括红外滤波器,以捕获红外光,使得所述第一相机和所述第二相机被限制为检测红外光。
8.根据权利要求7的系统,还包括:
通信接口,安装在所述框架上,其中所述通信接口被配置为将来自所述第一相机和所述第二相机的图像传递到位置远离所述框架的所述处理器。
9.根据权利要求5的系统,还包括:
通信接口,安装在所述框架上,其中所述通信接口被配置为将来自所述第一相机和所述第二相机的图像传递到位置远离所述框架的所述处理器,并且所述通信接口被配置为接收要在透镜上显示的图形信息。
10.根据权利要求9的系统,其中该图形包括用户的手的表示。
11.一种显示用户界面的方法,包括:
在显示三维演示的同时,接收由第一相机捕获的第一图像序列,其中所述第一相机安装在用户佩戴的框架上,使得当用户佩戴所述框架时,所述第一相机的视场在用户的视场中;
从安装在所述框架上的检测器接收检测区域内的一个或多个对象的检测数据,所述检测区域对应于用户适当佩戴所述框架时用户的视线;
处理所述第一图像序列;
处理所述检测器检测的检测数据;
通过对所述第一图像序列的处理,检测预定义的非传感器对象和所述非传感器对象的预定义的手势;
通过对所述第一图像序列和所述检测数据的处理,识别所述非传感器对象的至少部分相对于虚拟三维(3D)空间的虚拟X、Y和Z坐标,所述虚拟三维(3D)空间对应于所述第一相机的视场和所述检测器的检测区域;
识别对应于所检测到的手势和所述非传感器对象的虚拟3D位置的命令;以及
执行所述命令,
其中,所述方法还包括:
识别虚拟选项,所述虚拟选项在检测到所述手势时虚拟地显示在所述三维演示中,并且对应于所述非传感器对象的三维坐标,所述三维演示配置为要被显示且在用户的视场中;并且
识别命令的步骤包括:识别对应于所识别的虚拟选项和相对于所述虚拟选项的手势的命令。
12.根据权利要求11的方法,其中接收检测数据的步骤包括:
在显示三维演示的同时,接收由第二相机捕获的第二图像序列,其中所述第二相机安装在所述框架上,使得当用户佩戴所述框架时,所述第二相机的视场在用户的视场中。
13.根据权利要求11的方法,其中显示三维演示的步骤包括显示对所述非传感器对象的模拟。
14.根据权利要求13的方法,其中显示对非传感器对象的模拟的步骤包括显示对安装在所述框架上的透镜的模拟。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/215,451 | 2011-08-23 | ||
US13/215,451 US20130050069A1 (en) | 2011-08-23 | 2011-08-23 | Method and system for use in providing three dimensional user interface |
PCT/US2012/045566 WO2013028268A1 (en) | 2011-08-23 | 2012-07-05 | Method and system for use in providing three dimensional user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103180893A CN103180893A (zh) | 2013-06-26 |
CN103180893B true CN103180893B (zh) | 2016-01-20 |
Family
ID=47742911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280003480.6A Expired - Fee Related CN103180893B (zh) | 2011-08-23 | 2012-07-05 | 用于提供三维用户界面的方法和系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130050069A1 (zh) |
CN (1) | CN103180893B (zh) |
WO (1) | WO2013028268A1 (zh) |
Families Citing this family (136)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9159165B2 (en) * | 2010-07-13 | 2015-10-13 | Sony Computer Entertainment Inc. | Position-dependent gaming, 3-D controller, and handheld as a remote |
US10410500B2 (en) | 2010-09-23 | 2019-09-10 | Stryker Corporation | Person support apparatuses with virtual control panels |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
US20120173050A1 (en) | 2011-01-05 | 2012-07-05 | Bernstein Ian H | System and method for controlling a self-propelled device in connection with a virtual environment |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US20120244969A1 (en) | 2011-03-25 | 2012-09-27 | May Patents Ltd. | System and Method for a Motion Sensing Device |
US20130044912A1 (en) * | 2011-08-19 | 2013-02-21 | Qualcomm Incorporated | Use of association of an object detected in an image to obtain information to display to a user |
US9037297B2 (en) * | 2011-09-15 | 2015-05-19 | Persimmon Technologies Corporation | System and method for operation of a robot |
KR20140069124A (ko) * | 2011-09-19 | 2014-06-09 | 아이사이트 모빌 테크놀로지 엘티디 | 증강 현실 시스템용 터치프리 인터페이스 |
US9547406B1 (en) | 2011-10-31 | 2017-01-17 | Google Inc. | Velocity-based triggering |
US9110502B2 (en) * | 2011-12-16 | 2015-08-18 | Ryan Fink | Motion sensing display apparatuses |
EP2817785B1 (en) * | 2012-02-23 | 2019-05-15 | Charles D. Huston | System and method for creating an environment and for sharing a location based experience in an environment |
CN104285452A (zh) | 2012-03-14 | 2015-01-14 | 诺基亚公司 | 空间音频信号滤波 |
US20140309852A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Automatic vehicle diagnostic detection and communication |
JP2013206412A (ja) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | ヘッドマウントディスプレイ及びコンピュータプログラム |
US9827487B2 (en) | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
CN104428791A (zh) | 2012-05-14 | 2015-03-18 | 澳宝提克斯公司 | 通过检测图像中的圆形物体操作计算装置 |
US9292758B2 (en) | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US9116666B2 (en) * | 2012-06-01 | 2015-08-25 | Microsoft Technology Licensing, Llc | Gesture based region identification for holograms |
CN104335145A (zh) * | 2012-06-08 | 2015-02-04 | Kmt全球公司 | 基于空间位置识别的用户界面装置以及方法 |
US9041622B2 (en) * | 2012-06-12 | 2015-05-26 | Microsoft Technology Licensing, Llc | Controlling a virtual object with a real controller device |
US9696547B2 (en) * | 2012-06-25 | 2017-07-04 | Microsoft Technology Licensing, Llc | Mixed reality system learned input and functions |
US9645394B2 (en) * | 2012-06-25 | 2017-05-09 | Microsoft Technology Licensing, Llc | Configured virtual environments |
US20130342572A1 (en) * | 2012-06-26 | 2013-12-26 | Adam G. Poulos | Control of displayed content in virtual environments |
TWI498771B (zh) * | 2012-07-06 | 2015-09-01 | Pixart Imaging Inc | 可辨識手勢動作的眼鏡 |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
US9131295B2 (en) | 2012-08-07 | 2015-09-08 | Microsoft Technology Licensing, Llc | Multi-microphone audio source separation based on combined statistical angle distributions |
US9269146B2 (en) * | 2012-08-23 | 2016-02-23 | Microsoft Technology Licensing, Llc | Target object angle determination using multiple cameras |
US8907914B2 (en) * | 2012-08-31 | 2014-12-09 | General Electric Company | Methods and apparatus for documenting a procedure |
US9690384B1 (en) * | 2012-09-26 | 2017-06-27 | Amazon Technologies, Inc. | Fingertip location determinations for gesture input |
US9642214B2 (en) | 2012-10-22 | 2017-05-02 | Whirlpool Corporation | Sensor system for refrigerator |
US10223859B2 (en) * | 2012-10-30 | 2019-03-05 | Bally Gaming, Inc. | Augmented reality gaming eyewear |
US20140240225A1 (en) * | 2013-02-26 | 2014-08-28 | Pointgrab Ltd. | Method for touchless control of a device |
US10288881B2 (en) * | 2013-03-14 | 2019-05-14 | Fresenius Medical Care Holdings, Inc. | Wearable interface for remote monitoring and control of a medical device |
US20140267049A1 (en) * | 2013-03-15 | 2014-09-18 | Lenitra M. Durham | Layered and split keyboard for full 3d interaction on mobile devices |
US20140282274A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a gesture performed with at least two control objects |
WO2015008164A2 (en) * | 2013-06-27 | 2015-01-22 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
US10533850B2 (en) | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
KR102135353B1 (ko) * | 2013-08-30 | 2020-07-17 | 엘지전자 주식회사 | 시계형 단말기와 이를 포함하는 시스템 |
KR20150037254A (ko) * | 2013-09-30 | 2015-04-08 | 엘지전자 주식회사 | 착용형 디스플레이 디바이스 및 레이어 제어 방법 |
KR20150042574A (ko) * | 2013-10-11 | 2015-04-21 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
AU2014334669A1 (en) * | 2013-10-15 | 2016-05-05 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
CN103995620A (zh) * | 2013-12-02 | 2014-08-20 | 深圳市云立方信息科技有限公司 | 一种空中触控系统 |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
US9430046B2 (en) * | 2014-01-16 | 2016-08-30 | Denso International America, Inc. | Gesture based image capturing system for vehicle |
US10007329B1 (en) * | 2014-02-11 | 2018-06-26 | Leap Motion, Inc. | Drift cancelation for portable object detection and tracking |
US9986225B2 (en) * | 2014-02-14 | 2018-05-29 | Autodesk, Inc. | Techniques for cut-away stereo content in a stereoscopic display |
RU2683262C2 (ru) * | 2014-02-17 | 2019-03-27 | Сони Корпорейшн | Устройство обработки информации, способ обработки информации и программа |
EP2916209B1 (en) * | 2014-03-03 | 2019-11-20 | Nokia Technologies Oy | Input axis between an apparatus and a separate apparatus |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
KR20150110032A (ko) * | 2014-03-24 | 2015-10-02 | 삼성전자주식회사 | 영상데이터 처리 전자장치 및 방법 |
CN105094287A (zh) * | 2014-04-15 | 2015-11-25 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
EP3200109B1 (en) * | 2014-05-15 | 2022-10-05 | Fenwal, Inc. | Head-mounted display device for use in a medical facility |
US10235567B2 (en) * | 2014-05-15 | 2019-03-19 | Fenwal, Inc. | Head mounted display device for use in a medical facility |
US11100327B2 (en) | 2014-05-15 | 2021-08-24 | Fenwal, Inc. | Recording a state of a medical device |
DE102014107220A1 (de) * | 2014-05-22 | 2015-11-26 | Atlas Elektronik Gmbh | Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug |
KR102294945B1 (ko) | 2014-06-11 | 2021-08-30 | 삼성전자주식회사 | 기능 제어 방법 및 그 전자 장치 |
US20150370472A1 (en) * | 2014-06-19 | 2015-12-24 | Xerox Corporation | 3-d motion control for document discovery and retrieval |
TW201610750A (zh) * | 2014-09-03 | 2016-03-16 | Liquid3D Solutions Ltd | 可與3d影像互動之手勢控制系統 |
US10015402B2 (en) * | 2014-09-08 | 2018-07-03 | Nintendo Co., Ltd. | Electronic apparatus |
GB2532464B (en) | 2014-11-19 | 2020-09-02 | Bae Systems Plc | Apparatus and method for selectively displaying an operational environment |
GB2532465B (en) | 2014-11-19 | 2021-08-11 | Bae Systems Plc | Interactive control station |
GB2532463B (en) * | 2014-11-19 | 2021-05-26 | Bae Systems Plc | Interactive vehicle control system |
US10249088B2 (en) * | 2014-11-20 | 2019-04-02 | Honda Motor Co., Ltd. | System and method for remote virtual reality control of movable vehicle partitions |
US9823764B2 (en) * | 2014-12-03 | 2017-11-21 | Microsoft Technology Licensing, Llc | Pointer projection for natural user input |
TWI521387B (zh) * | 2014-12-25 | 2016-02-11 | 國立臺灣大學 | 三維空間中之可重置式虛擬觸控板 |
US10725297B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
US10726625B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for improving the transmission and processing of data regarding a multi-user virtual environment |
KR20160096422A (ko) * | 2015-02-05 | 2016-08-16 | 삼성전자주식회사 | 화면 표시 방법 및 전자 장치 |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
WO2016135473A1 (en) | 2015-02-25 | 2016-09-01 | Bae Systems Plc | Apparatus and method for effecting a control action in respect of system functions |
US10156908B2 (en) * | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
US10007413B2 (en) | 2015-04-27 | 2018-06-26 | Microsoft Technology Licensing, Llc | Mixed environment display of attached control elements |
US20160314621A1 (en) | 2015-04-27 | 2016-10-27 | David M. Hill | Mixed environment display of attached data |
EP3088991B1 (en) * | 2015-04-30 | 2019-12-25 | TP Vision Holding B.V. | Wearable device and method for enabling user interaction |
US10401966B2 (en) * | 2015-05-15 | 2019-09-03 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
JP6467039B2 (ja) * | 2015-05-21 | 2019-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
EP3096517A1 (en) * | 2015-05-22 | 2016-11-23 | TP Vision Holding B.V. | Wearable smart glasses |
KR20160138806A (ko) * | 2015-05-26 | 2016-12-06 | 엘지전자 주식회사 | 글래스타입 단말기 및 그 제어방법 |
US20170329409A9 (en) * | 2015-06-12 | 2017-11-16 | Insignal Co., Ltd. | Smart glasses, and system and method for processing hand gesture command therefor |
CN105242776A (zh) * | 2015-09-07 | 2016-01-13 | 北京君正集成电路股份有限公司 | 一种智能眼镜的控制方法及智能眼镜 |
US10466780B1 (en) * | 2015-10-26 | 2019-11-05 | Pillantas | Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor |
US10692126B2 (en) | 2015-11-17 | 2020-06-23 | Nio Usa, Inc. | Network-based system for selling and servicing cars |
CN106445985B (zh) * | 2016-04-29 | 2019-09-03 | 上海交通大学 | 基于手绘运动轮廓的视频检索方法及系统 |
US9823477B1 (en) * | 2016-05-02 | 2017-11-21 | Futurewei Technologies, Inc. | Head mounted display content capture and sharing |
CN106020478B (zh) * | 2016-05-20 | 2019-09-13 | 青岛海信电器股份有限公司 | 一种智能终端操控方法、装置和智能终端 |
CN105915418A (zh) * | 2016-05-23 | 2016-08-31 | 珠海格力电器股份有限公司 | 一种家电控制方法及装置 |
DE102016212236A1 (de) * | 2016-07-05 | 2018-01-11 | Siemens Aktiengesellschaft | Interaktionssystem und -verfahren |
US20180012197A1 (en) | 2016-07-07 | 2018-01-11 | NextEv USA, Inc. | Battery exchange licensing program based on state of charge of battery pack |
US9928734B2 (en) | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
US10099368B2 (en) | 2016-10-25 | 2018-10-16 | Brandon DelSpina | System for controlling light and for tracking tools in a three-dimensional space |
US9963106B1 (en) | 2016-11-07 | 2018-05-08 | Nio Usa, Inc. | Method and system for authentication in autonomous vehicles |
US10694357B2 (en) | 2016-11-11 | 2020-06-23 | Nio Usa, Inc. | Using vehicle sensor data to monitor pedestrian health |
US10708547B2 (en) | 2016-11-11 | 2020-07-07 | Nio Usa, Inc. | Using vehicle sensor data to monitor environmental and geologic conditions |
US10410064B2 (en) | 2016-11-11 | 2019-09-10 | Nio Usa, Inc. | System for tracking and identifying vehicles and pedestrians |
US10515390B2 (en) | 2016-11-21 | 2019-12-24 | Nio Usa, Inc. | Method and system for data optimization |
US10249104B2 (en) | 2016-12-06 | 2019-04-02 | Nio Usa, Inc. | Lease observation and event recording |
US10074223B2 (en) | 2017-01-13 | 2018-09-11 | Nio Usa, Inc. | Secured vehicle for user use only |
US10031521B1 (en) | 2017-01-16 | 2018-07-24 | Nio Usa, Inc. | Method and system for using weather information in operation of autonomous vehicles |
US10471829B2 (en) | 2017-01-16 | 2019-11-12 | Nio Usa, Inc. | Self-destruct zone and autonomous vehicle navigation |
US9984572B1 (en) | 2017-01-16 | 2018-05-29 | Nio Usa, Inc. | Method and system for sharing parking space availability among autonomous vehicles |
US10464530B2 (en) | 2017-01-17 | 2019-11-05 | Nio Usa, Inc. | Voice biometric pre-purchase enrollment for autonomous vehicles |
US10286915B2 (en) | 2017-01-17 | 2019-05-14 | Nio Usa, Inc. | Machine learning for personalized driving |
US10897469B2 (en) | 2017-02-02 | 2021-01-19 | Nio Usa, Inc. | System and method for firewalls between vehicle networks |
FR3063713B1 (fr) * | 2017-03-09 | 2019-07-05 | Airbus Operations (S.A.S.) | Systeme et procede d'affichage pour un aeronef |
US20180267615A1 (en) * | 2017-03-20 | 2018-09-20 | Daqri, Llc | Gesture-based graphical keyboard for computing devices |
CN110914788A (zh) * | 2017-05-16 | 2020-03-24 | 皇家飞利浦有限公司 | 用于增强现实中的用户交互的虚拟覆盖物 |
US10471347B2 (en) * | 2017-05-24 | 2019-11-12 | Nintendo Co., Ltd. | Information processing system, information processing apparatus, storage medium storing information processing program, and information processing method |
US10234302B2 (en) | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
CN109285122B (zh) * | 2017-07-20 | 2022-09-27 | 阿里巴巴集团控股有限公司 | 一种进行图像处理的方法和设备 |
US10837790B2 (en) | 2017-08-01 | 2020-11-17 | Nio Usa, Inc. | Productive and accident-free driving modes for a vehicle |
EP3336848B1 (en) * | 2017-08-15 | 2023-09-27 | Siemens Healthcare GmbH | Method for operating a medical imaging device and medical imaging device |
US10834332B2 (en) | 2017-08-16 | 2020-11-10 | Covidien Lp | Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery |
US10635109B2 (en) | 2017-10-17 | 2020-04-28 | Nio Usa, Inc. | Vehicle path-planner monitor and controller |
US10606274B2 (en) | 2017-10-30 | 2020-03-31 | Nio Usa, Inc. | Visual place recognition based self-localization for autonomous vehicles |
US10935978B2 (en) | 2017-10-30 | 2021-03-02 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
US10717412B2 (en) | 2017-11-13 | 2020-07-21 | Nio Usa, Inc. | System and method for controlling a vehicle using secondary access methods |
EP3495936A1 (de) * | 2017-12-07 | 2019-06-12 | Siemens Aktiengesellschaft | Sichere brillenartige vorrichtung und verfahren |
KR102579034B1 (ko) * | 2018-02-23 | 2023-09-15 | 삼성전자주식회사 | 영상 출력 모듈의 아래에 영상이 출력되는 방향에 대해 지정된 각도로 배치된 반 투명 부재를 포함하는 전자 장치 |
US10572002B2 (en) * | 2018-03-13 | 2020-02-25 | Facebook Technologies, Llc | Distributed artificial reality system with contextualized hand tracking |
US10369966B1 (en) | 2018-05-23 | 2019-08-06 | Nio Usa, Inc. | Controlling access to a vehicle using wireless access devices |
US10783712B2 (en) * | 2018-06-27 | 2020-09-22 | Facebook Technologies, Llc | Visual flairs for emphasizing gestures in artificial-reality environments |
RU2695053C1 (ru) * | 2018-09-18 | 2019-07-18 | Общество С Ограниченной Ответственностью "Заботливый Город" | Способ и устройство для управления трехмерными объектами в виртуальном пространстве |
IT201800021415A1 (it) * | 2018-12-28 | 2020-06-28 | Sisspre Soc It Sistemi E Servizi Di Precisione S R L | Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari |
US10964104B2 (en) * | 2019-02-27 | 2021-03-30 | Rockwell Automation Technologies, Inc. | Remote monitoring and assistance techniques with volumetric three-dimensional imaging |
US10921879B2 (en) * | 2019-06-07 | 2021-02-16 | Facebook Technologies, Llc | Artificial reality systems with personal assistant element for gating user interface elements |
US11340756B2 (en) * | 2019-09-27 | 2022-05-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11372518B2 (en) * | 2020-06-03 | 2022-06-28 | Capital One Services, Llc | Systems and methods for augmented or mixed reality writing |
CN112380362B (zh) * | 2020-10-27 | 2024-06-18 | 脸萌有限公司 | 基于用户交互的音乐播放方法、装置、设备及存储介质 |
CN112767766A (zh) * | 2021-01-22 | 2021-05-07 | 郑州捷安高科股份有限公司 | 增强现实界面训练方法、装置、设备及存储介质 |
US12064397B2 (en) | 2021-08-25 | 2024-08-20 | Fenwal, Inc. | Determining characteristic of blood component with handheld camera |
CN117677919A (zh) * | 2022-03-24 | 2024-03-08 | 深圳市闪至科技有限公司 | 可穿戴设备的人机交互方法、可穿戴设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6346929B1 (en) * | 1994-04-22 | 2002-02-12 | Canon Kabushiki Kaisha | Display apparatus which detects an observer body part motion in correspondence to a displayed element used to input operation instructions to start a process |
CN101185114A (zh) * | 2005-05-27 | 2008-05-21 | 摩托罗拉公司 | 用于手持电子装置的用户接口控制器方法和设备 |
USRE42336E1 (en) * | 1995-11-28 | 2011-05-10 | Rembrandt Portable Display Technologies, Lp | Intuitive control of portable data displays |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6665117B2 (en) * | 1999-05-06 | 2003-12-16 | Conocophillips Company | Method and apparatus for interactive curved surface borehole interpretation and visualization |
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US7952059B2 (en) * | 2007-06-13 | 2011-05-31 | Eyes Of God, Inc. | Viewing system for augmented reality head mounted display with rotationally symmetric aspheric lenses |
US8311615B2 (en) * | 2009-07-09 | 2012-11-13 | Becton, Dickinson And Company | System and method for visualizing needle entry into a body |
US9582144B2 (en) * | 2011-01-20 | 2017-02-28 | Blackberry Limited | Three-dimensional, multi-depth presentation of icons associated with a user interface |
JP5519580B2 (ja) * | 2011-06-06 | 2014-06-11 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、画像表示装置、立体画像表示方法、および、プログラム |
-
2011
- 2011-08-23 US US13/215,451 patent/US20130050069A1/en not_active Abandoned
-
2012
- 2012-07-05 WO PCT/US2012/045566 patent/WO2013028268A1/en active Application Filing
- 2012-07-05 CN CN201280003480.6A patent/CN103180893B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6346929B1 (en) * | 1994-04-22 | 2002-02-12 | Canon Kabushiki Kaisha | Display apparatus which detects an observer body part motion in correspondence to a displayed element used to input operation instructions to start a process |
USRE42336E1 (en) * | 1995-11-28 | 2011-05-10 | Rembrandt Portable Display Technologies, Lp | Intuitive control of portable data displays |
CN101185114A (zh) * | 2005-05-27 | 2008-05-21 | 摩托罗拉公司 | 用于手持电子装置的用户接口控制器方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
US20130050069A1 (en) | 2013-02-28 |
CN103180893A (zh) | 2013-06-26 |
WO2013028268A1 (en) | 2013-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103180893B (zh) | 用于提供三维用户界面的方法和系统 | |
US11127210B2 (en) | Touch and social cues as inputs into a computer | |
CN109313500B (zh) | 纤细形状因子的无源光学和惯性跟踪 | |
Van Krevelen et al. | A survey of augmented reality technologies, applications and limitations | |
US9201568B2 (en) | Three-dimensional tracking of a user control device in a volume | |
CN102959616B (zh) | 自然交互的交互真实性增强 | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
US8253649B2 (en) | Spatially correlated rendering of three-dimensional content on display components having arbitrary positions | |
Pfeiffer | Measuring and visualizing attention in space with 3D attention volumes | |
US20160267720A1 (en) | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
US20110012830A1 (en) | Stereo image interaction system | |
EP3106963B1 (en) | Mediated reality | |
WO2016095057A1 (en) | Peripheral tracking for an augmented reality head mounted device | |
CN104995583A (zh) | 用于混合现实环境的直接交互系统 | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
KR20160021126A (ko) | 공유된 홀로그램 객체 및 사적 홀로그램 객체 | |
CN112346572A (zh) | 一种虚实融合实现方法、系统和电子设备 | |
US11209903B2 (en) | Rendering of mediated reality content | |
US11189054B2 (en) | Localization and mapping using images from multiple devices | |
US11561613B2 (en) | Determining angular acceleration | |
EP3627288A1 (en) | Camera module and system using the same | |
CN112655202A (zh) | 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正 | |
Saggio et al. | Augmented reality for restoration/reconstruction of artefacts with artistic or historical value | |
US20220230357A1 (en) | Data processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160120 |