CN109840042A - 在混合现实中显示虚拟对象的方法以及相关终端和系统 - Google Patents
在混合现实中显示虚拟对象的方法以及相关终端和系统 Download PDFInfo
- Publication number
- CN109840042A CN109840042A CN201811437333.5A CN201811437333A CN109840042A CN 109840042 A CN109840042 A CN 109840042A CN 201811437333 A CN201811437333 A CN 201811437333A CN 109840042 A CN109840042 A CN 109840042A
- Authority
- CN
- China
- Prior art keywords
- terminal
- window
- data element
- virtual objects
- mixed reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000001825 Polyoxyethene (8) stearate Substances 0.000 claims abstract description 3
- 239000000711 locust bean gum Substances 0.000 claims abstract description 3
- 239000000600 sorbitol Substances 0.000 claims abstract description 3
- 238000004590 computer program Methods 0.000 claims description 11
- 239000011521 glass Substances 0.000 claims description 10
- NLXLAEXVIDQMFP-UHFFFAOYSA-N Ammonium chloride Substances [NH4+].[Cl-] NLXLAEXVIDQMFP-UHFFFAOYSA-N 0.000 claims description 5
- 239000000395 magnesium oxide Substances 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 239000001095 magnesium carbonate Substances 0.000 claims description 3
- 239000001164 aluminium sulphate Substances 0.000 claims description 2
- 238000011946 reduction process Methods 0.000 claims description 2
- 102100029859 Zinc finger protein neuro-d4 Human genes 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- -1 E506 Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
- G09G2340/145—Solving problems related to the presentation of information to be displayed related to small screens
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种在混合现实中显示至少一个虚拟对象的方法,该方法包括由第一终端执行的以下步骤:发送步骤(E410),用于发送定位在计算机应用程序的第一窗口的一部分上的指针的至少一个位置数据元素,第一窗口由第二终端显示;接收步骤(E420),用于接收与第一窗口的一部分相关的至少一个数据元素;以及处理步骤(E430),用于处理与第一窗口的一部分相关的至少一个数据元素,以便基于与第一窗口的一部分相关的至少一个数据元素在混合现实中显示至少一个虚拟对象。
Description
技术领域
本发明涉及混合现实(mixed reality)、有时也称为混和现实(hybrid reality)的一般领域,并且,更具体地涉及一种在混合现实中显示至少一个虚拟对象的方法。
背景技术
终端用户,例如计算机用户,经常需要同时使用多个计算机应用程序,例如,同时一起使用文字处理器软件与电子邮件应用程序。
然而,小尺寸的终端屏幕往往不能做到同时显示所有使用中的应用程序的窗口,来使得用户能够清楚地看见它们。
举例来说,某些应用程序的显示仅可以缩小为图标,这样用户才不再对那些应用程序有任何视觉反馈,但是为了使那些应用程序再次显示,用户需要执行控制操作。
因此,需要一种能够改进多个应用程序的同时显示的解决方案。
发明内容
本发明涉及一种在混合现实中显示至少一个虚拟对象的方法,该方法包括由第一终端执行的以下步骤:
·发送步骤,用于发送定位在计算机应用程序的第一窗口的一部分上的指针的至少一个位置数据元素,所述第一窗口由第二终端显示;
·接收步骤,用于接收与所述第一窗口的一部分相关的至少一个数据元素;以及
·处理步骤,用于处理与所述一部分相关的至少一个数据元素,以便基于与所述一部分相关的至少一个数据元素在混合现实中显示所述至少一个虚拟对象。
因此,第一终端的用户可以将使用中的计算机应用程序的显示从第二终端的显示设备扩展出来。可以同时显示与这些应用程序对应的许多个虚拟对象。
在特定的实施方式中,所述至少一个虚拟对象是计算机应用程序的第二窗口。
在特定的实施方式中,所述方法进一步包括由所述第一终端执行的以下步骤:
·用于获取显示所述第一窗口的所述第二终端的显示设备在所述第一终端和所述第二终端所定位的真实环境中的至少一个位置数据元素的获取步骤;以及
·用于获取所述指针的至少一个位置数据元素的获取步骤,所述指针的至少一个位置数据元素是所述指针相对于所述显示设备的位置数据元素。
在特定的实施方式中,在检测用于显示所述至少一个虚拟对象的命令时执行所述发送步骤。
在特定的实施方式中,所述接收步骤包括接收:
·所述第一窗口的一部分的至少一个抓取,其为数字图像格式;和/或
·与所述第一窗口的一部分相关的至少一个上下文数据元素;和/或
·与所述第一窗口的一部分相关的至少一个元数据元素。
在特定的实施方式中,所述第一终端是混合现实头戴式显示器或混合现实眼镜。
在特定的实施方式中,所述方法进一步包括由所述第二终端执行的缩小步骤,用于缩小所述第一窗口的一部分。
在特定的实施方式中,所述方法进一步包括由所述第二终端执行的确定步骤,用于根据所述指针的至少一个位置数据元素确定所述第一窗口的一部分。
此外,本发明提供了一种适于执行如上所述方法的混合现实终端。
而且,本发明提供了一种适于执行如上所述的方法、包括如上所述的终端的系统。
在特定的实施例中,用于显示本发明的至少一个虚拟对象的本发明的混合现实显示方法的各个步骤由计算机程序指令确定。
因此,本发明还提供了一种数据介质上的计算机程序,所述程序包括适于执行根据本发明的用于显示至少一个虚拟对象的混合现实显示方法的步骤的指令。
所述程序可以使用任何编程语言,并且它可以是源代码、目标代码,或者源代码与目标代码之间的代码的形式,诸如为部分编译的形式,或者为任何其它期望的形式。
本发明还提供了一种计算机可读数据介质,包括如上所述的计算机程序的指令。
数据介质可以是能够存储程序的任何实体或设备。例如,介质可以包括诸如只读存储器(ROM)等的存储装置,例如光盘(CD)ROM或微电子电路ROM,或者甚至可以包括磁记录装置,例如硬盘。
此外,数据介质可以是可传输介质,诸如可以经由电缆或光缆、通过无线电或通过其它方式传送的电信号或光信号。特别地,本发明的程序可以从因特网类型的网络上下载。
可选地,数据介质可以是其中包含程序的集成电路,所述电路适于执行所讨论的方法或用于执行所讨论的方法。
附图说明
本发明的其它特征和优点从以下参考附图的描述中呈现,所述附图示出了没有限制特征的实施方式。在图中:
图1是本发明的实施例中用于显示至少一个虚拟对象的混合现实显示系统的示图;
图2A和图2B是示出本发明的实施例中用于显示至少一个虚拟对象的混合现实显示系统的第一终端和第二终端的示图;
图3A和图3B分别是图1的系统的第一终端和第二终端的示图;
图4和图5是示出本发明的各实施方式中用于显示至少一个虚拟对象的混合现实显示方法的主要步骤的流程图;以及
图6是示出本发明的实施例中用于显示至少一个虚拟对象的混合现实显示系统的第二终端的屏幕的示图。
具体实施方式
图1是示出用于显示至少一个虚拟对象、并且适于实现本发明的实施方式中用于显示至少一个虚拟对象的混合现实显示方法的混合现实显示系统100的示图。
混合现实是使虚拟世界能够与真实世界融合以便产生新的环境和显示的技术,其中真实世界的物理对象以及虚拟世界的数字对象共存并且可以例如以实时方式进行交互。混合现实使得可以通过显示设备显示虚拟对象,以便将它们叠加在真实世界中。
系统100包括第一终端110,并且还可以包括第二终端120。第一终端110和第二终端120可以通过电信网络130彼此通信,所述电信网络130例如为因特网类型网络(例如WiFi)、蓝牙网络,或者固定或移动电话网络(为3G、4G等类型)。
图2A示出了第一终端110和第二终端120的实例,其中第一终端110是用户佩戴的混合现实眼镜,而第二终端120是计算机。第二终端的屏幕显示两个计算机应用程序的窗口F1和F2。第一终端110和第二终端120的用户U可以通过凝视两个窗口之一F1的一部分将第一终端110的指针P定位在这一部分上。
用户U还可以进行抓取所述第一窗口F1的这一部分的运动,该抓取运动被第一终端110解释为显示第一窗口F1的这一部分的命令。
然后,第二终端120可以向第一终端110发送与指向窗口F1相关的数据,使得第一终端110可以基于该数据显示新窗口F3(参见图2B)。然后,第二终端120可以停止显示窗口F1或者可以缩小窗口F1。
然后,用户U可以自由移动新窗口F3。用户还可以与该新窗口F3交互。
第一终端110通常是混合现实眼镜,诸如“Microsoft Hololens”(注册商标)眼镜,或者混合现实头戴式显示器。在一种变型中,第一终端110可以是移动终端,诸如智能手机型便携式电话或数字平板电脑。
举例来说,第二终端120是固定终端或移动终端,诸如计算机,通常是个人计算机、智能手机型移动电话、数字平板电脑或数字电视机。
第一终端110包括指针模块、用于发送位置数据的发送模块、用于接收第一窗口部分数据的接收模块,以及用于处理真实环境数据和第一窗口部分数据的处理器模块。此外,第一终端110可以包括用于获取位置数据的获取模块、用于采集真实环境数据的采集模块,和/或用于显示虚拟对象的显示设备。
在一个实例中,显示设备是透明或半透明屏幕,其上可以显示虚拟对象,所述虚拟对象通常采用全息图的形式。透明屏幕可以定位在用户眼睛的前方,使得用户通过屏幕看到屏幕上显示的虚拟对象和真实环境。因此,透明屏幕通常安装在混合现实眼镜上或安装在混合现实头戴式显示器上。
在另一个实例中,显示设备是能够显示来自真实世界的图像的屏幕,所述图像通常由采集模块采集,其中可以将虚拟对象叠加在该图像上。
在实例中,采集模块是移动相机或静止相机,和/或深度传感器。
发送模块和/或接收模块可以包括一个或多个远程通信模块,例如WiFi子模块和/或多个近程通信子模块,例如近场通信(NFC)子模块或蓝牙子模块。
另外,第二终端120可以包括显示设备、用于接收位置数据的接收模块、用于处理位置数据的处理器模块、用于抓取第一窗口部分的抓取模块、用于存储第一窗口部分数据的存储模块、用于缩小第一窗口部分的缩小模块,和/或用于发送第一窗口部分数据的发送模块。
如图3A所示,第一终端110呈现计算机的传统架构。第一终端110具体包括处理器300、ROM 302、可重写非易失性存储器304(例如为电可擦除可编程只读存储器(EEPROM)类型或“闪存NAND”类型)、可重写易失性存储器306(为随机存取存储器(RAM)类型),以及通信接口308。
根据本发明的实施例,第一终端110的ROM 302构成数据介质;根据本发明的实施例,该数据介质可由处理器300读取并且存储计算机程序P1。在一种变型中,计算机程序P1存储在可重写非易失性存储器304中。
计算机程序P1定义功能模块和软件模块,这些功能模块和软件模块在该实例中被配置成执行根据本发明的实施方式的用于显示至少一个虚拟对象的混合现实显示方法的各步骤。这些功能模块依赖或控制上述第一终端110的硬件元件300、302、304、306和308。特别地,在该实例中,它们包括指针模块、发送模块、接收模块、处理器模块,并且还可能包括获取模块和/或采集模块。
另外,如图3B所示,第二终端120还通过包括处理器310、ROM 312、可重写非易失性存储器314(例如为EEPROM或闪存NAND类型)、可重写易失性存储器316(为RAM类型)和通信接口318来呈现计算机的传统架构。
与第一终端110类似,根据本发明的实施例,第二终端120的ROM 312(或可重写易失性存储器314)构成数据介质;根据本发明的实施例,该数据介质可由处理器310读取并且存储计算机程序P2。
计算机程序P2定义功能模块和软件模块,这些功能模块和软件模块在该实例中被配置成实现根据本发明的实施方式的用于显示至少一个虚拟对象的混合现实显示方法的各步骤。特别地,它们包括接收模块、处理器模块、抓取模块、存储模块、缩小模块和发送模块。
下面参考图4和图5描述的方法步骤详细描述这些各种模块的功能。
图4示出了本发明的实施方式中用于显示至少一个虚拟对象的混合现实方法。
该方法由第一终端执行,例如,参考图1和图3A描述的第一终端110。
在步骤E410中,第一终端110的发送模块发送定位在计算机应用程序的第一窗口F1的一部分上的指针P的至少一个位置数据元素DP,第一窗口F1由第二终端120显示。
此外,在步骤E420中,第一终端110的接收模块接收与第一窗口F1的该一部分相关的至少一个数据元素DPF1。
另外,在步骤E430中,处理器模块处理与第一窗口F1的该一部分相关的至少一个数据元素DPF1,以便基于与第一窗口F1的该一部分相关的至少一个数据元素DPF1在混合现实中显示虚拟对象。
图5示出了本发明的另一个实施方式中用于显示至少一个虚拟对象的混合现实显示方法。
该方法由用于显示至少一个虚拟对象的混合现实显示系统执行,例如,参考图1描述的系统100。
在步骤F500中,第二终端120的显示设备显示第一窗口F1,可能还一起显示一个或多个其它窗口F2。
在步骤E502中,第一终端110获取显示第一窗口F1的第二终端120的显示设备在第一终端110和第二终端120所处的真实环境ER中的一个或多个位置数据元素DPE。该步骤E502由第一终端110的获取模块以及采集模块执行。
术语“真实环境”ER表示在获取步骤E502期间第二终端120与第一终端110所定位的空间。通常,真实环境ER是建筑物中的房间的形式。
第一终端110的采集模块以三维方式扫描真实环境ER。然后,通过使用三维坐标,基于来自采集模块的数据,获取模块以三维方式对虚拟环境EV进行建模。
术语“虚拟环境”EV在本文中用于指与参考系(通常为矩形参考系)相关的数字空间,参考系表示在获取步骤502期间第一终端110和第二终端120所定位的真实环境ER,所述表示是通过三维坐标进行的。
建模使得可以从第二终端120的显示设备获取一个或多个位置数据元素DPE。更准确地说,在建模期间,可以通过获取模块获取第二终端120的显示设备在与真实环境ER对应的虚拟环境EV中的一组或多组三维坐标。
在显示设备是矩形屏幕E的实例中,可以获取屏幕E的两个相对角的三维坐标,例如,屏幕E的左下角A和右上角B(见图6),或者甚至是左上角和右下角。然后,可以从屏幕E的两个相对角的三维坐标推导出屏幕E的高度HAB和宽度LAB。
第一终端110的用户将第一终端110的指针模块的指针P定位在第一窗口F1的一部分PF1上。
然后,在步骤E504中,第一终端110可以获取给出指针的位置的至少一个位置数据元素DP,所述指针位置数据元素DP可以是给出指针相对于显示设备的位置的数据元素。该步骤504可以由第一终端110的获取模块执行,也可以由采集模块执行。
更准确地说,可以通过第一终端110的获取模块获取指针P在与真实环境ER对应的虚拟环境EV中的一组或多组三维坐标。可以使用所获得的多组三维坐标来计算指针相对于显示设备的位置数据元素DP。
在图6的显示设备是矩形屏幕E的实例中,可以获取指针P相对于屏幕上的某一点的若干位置数据元素DP,例如,与指针P相对于位于屏幕一角的点(通常是矩形参考系的原点),通常是屏幕的左下角A的代数距离对应的垂直分量HAP和水平分量LAP。
然后,在步骤E510中,第一终端110的发送模块发送指针P的位置数据元素DP,并且可以由第二终端120的接收模块接收(步骤F510)。
当第一终端110检测显示虚拟对象的命令C时(步骤E506),可以执行该发送步骤E510。
在该实例中,显示命令C是由用户U做出的手势,通常是抓取运动,例如,抓取第一窗口F1的一部分PF1的运动,如图2A所示。然后,第一终端110的采集模块可以采集包括用户手势的一个或多个图像或视频。然后,第一终端110的处理器模块可以分析所述图像或视频,以便检测手势。
在另一个实例中,显示命令C是通过分析第一终端110采集的音频数据而检测到的语音命令。
在又一个实例中,显示命令C是对第一终端110的控制外围设备的动作,该外围设备可以例如是按钮或触摸表面。当第一终端110是混合现实眼镜时,该控制外围设备可以位于该眼镜的镜腿分支上。
在第二终端120的接收模块接收到指针P的位置数据元素DP(步骤F510)之后,第二终端120的处理器模块在步骤F512中运行以基于指针P的位置数据元素DP确定第一窗口F1的一部分PF1。
在实例中,第一窗口F1的一部分PF1是第一窗口F1的窗格、栏条或标签。因此,第一窗口F1的一部分PF1通常是导航标签或地址栏。在另一个实例中,第一窗口F1的一部分PF1完全由第一窗口F1构成。
更确切地说,在步骤F512的子步骤中,处理器模块将位置数据元素DP与第二终端120的显示设备显示的每个窗口的一个或多个部分的一个或多个位置数据元素进行比较。然后,处理器模块可以找到第一窗口F1的一部分PF1,用户将第一终端110的指针模块的指针P放置在所述第一窗口F1的这一部分PF1。
该比较可选择在确定指针P在屏幕上的位置的子步骤之前进行。
在图6的显示设备是矩形屏幕E的实例中,在步骤F510中,接收模块可以接收屏幕E的高度HAB、屏幕E的宽度LAB、与指针P相对于位于屏幕E的一角(通常是左下角)的点的代数距离对应的垂直分量HAP,以及与指针P相对于同一点的代数距离对应的水平分量LAP。然后,可以通过以下公式获得指针P的坐标(X,Y):
X=Rx*LAP/LAB;以及
Y=Ry*HAP/HAB;
其中,Rx和Ry表示屏幕的分辨率。
因此,即使当第一终端110不知道第二终端120的屏幕的分辨率时,也可以获得指针P的坐标(X,Y)。
在一种变型中,不执行步骤E502、E504、E506、E510、F510和/或F512,并且第二终端120的处理器模块根据第二终端120的指针模块的指针的一个或多个位置数据元素,确定第一窗口F1的一部分PF1。在该变型中,第二终端的指针模块可以例如是计算机鼠标。
一旦确定了第一窗口F1的一部分PF1,就可以通过第二终端120的抓取模块以数字图像格式抓取第一窗口F1的一部分PF1(步骤F514)。
而且,与第一窗口F1的一部分PF1相关的一个或多个上下文数据元素DC和/或与第一窗口F1的一部分PF1相关的一个或多个元数据元素MET,可以由第二终端120的存储模块存储在第二终端120的可重写非易失性存储器314中(步骤F516)。
每个上下文数据元素DC可以是描述计算机应用程序的数据元素,并且因此可以指示计算机应用程序的类型、名称和版本号。每个上下文数据元素还可以指示显示大小、语言、所使用的连接类型等。
对于文本处理器应用程序,每个上下文数据元素也可以是描述文档的数据元素,并且可以例如指定文档的作者。
此外,每个元数据元素MET可以是关于第二终端120的显示设备显示的一部分PF1的数据元素。因此,对于文字处理器应用程序,每个元数据元素可以包括在第一窗口的该一部分中显示的文本、显示的当前页码、选定的字体、字体大小、剪贴板内容等。
而且,在步骤F518中,第二终端120的缩小模块缩小第二终端120的显示设备显示的第一窗口F1的该一部分。当第一窗口F1的一部分PF1由整个第一窗口F1构成时,将第一窗口F1缩小到由第二终端120的显示设备显示的图标的大小。在一种变型中,第二终端120停止显示第一窗口F1。
在步骤F520中,第二终端120的发送模块发送与在步骤F512中确定的第一窗口F1的一部分PF1相关的一个或多个数据元素DPF1。举例来说,在该步骤F520期间,可以发送数字图像格式的第一窗口F1的一部分PF1的抓取和/或上下文数据元素和/或元数据元素。
在第一终端110的接收模块接收到与第一窗口F1的一部分PF1相关的数据DPF1(步骤E520)之后,第一终端110的处理器模块在步骤E530中运行以处理所接收的数据元素DPF1,从而基于该数据元素DPF1在混合现实中显示虚拟对象OV。在该处理步骤E530中,可以定义虚拟对象OV的三维坐标。
在步骤E532中,第一终端110的显示设备显示虚拟对象OV。
更确切地说,第一终端110的显示设备可以显示虚拟对象OV,使得第一终端110的用户U可以在第一终端110上看到叠加在真实环境ER上的该虚拟对象OV。
当第一终端110是混合现实眼镜或混合现实头戴式显示器时,显示设备是透明或半透明屏幕,其上在步骤E532中显示虚拟对象OV。所述屏幕安装在眼镜或头戴式显示器上,使得当用户U佩戴眼镜或头戴式显示器时,用户通过屏幕看到屏幕上一起显示的虚拟对象OV以及真实环境ER。
当第一终端110是诸如移动电话或数字平板电脑等移动终端时,显示设备是屏幕,该屏幕在步骤E532中运行以显示叠加在源自真实环境ER(通常由移动终端的相机采集)的图像上的虚拟对象OV。
举例来说,虚拟对象OV以这样的方式显示:对于第一终端110的用户U,虚拟对象OV看起来与第二终端120的显示设备的显示表面间隔开。因此,虚拟对象OV可以出现在第二终端120的显示设备的显示表面周围的某处,例如上方、下方、左侧和/或右侧。然后,可以在处理步骤E530期间将虚拟对象OV的三维坐标,定义为在步骤E502中获取的第二终端120的显示设备的位置数据元素DPE的函数。
在实例中,所显示的虚拟对象OV是数字图像格式的第一窗口的一部分PF1的抓取。在一种变型中,虚拟对象OV可以是视频。
在另一个实例中,处理器模块根据上下文数据元素和/或元数据元素创建虚拟对象OV。在处理所花费的时间期间,即在显示虚拟对象OV之前,第一终端110的显示设备可以显示第一窗口的一部分PF1的抓取。
那么,虚拟对象可以是例如为全息图形式的、适于在混合现实中显示的计算机应用程序的第二窗口(参见例如图2B的窗口F3),或者它可以是与第一窗口的一部分PF1对应并且适于在混合现实中显示的计算机应用程序的服务的三维表示(通常为全息图形式)。
当虚拟对象OV是第二窗口时,处理器模块显示一个或多个元数据元素并且可以利用一个或多个上下文数据元素以便定义第二窗口的形状和人体工程学。因此,在第一窗口F1的一部分PF1是窗口、窗格、栏条或导航标签的实例中,虚拟对象OV可以是第二窗口,可以类似于一部分PF1并且显示与一部分PF1基本上相同的内容。
在其它实例中,虚拟对象OV的内容、形状和/或人体工程学可以与一部分PF1的内容、形状和/或人体工程学不同。因此,当第一窗口F1的一部分PF1是二维图像时,虚拟对象OV可以是包括该图像的相框。
在步骤E534中,用户U可以通过第一终端110与虚拟对象OV交互。所述交互可以包括移动虚拟对象OV,和/或修改虚拟对象的内容。
例如,如果虚拟对象OV是视频,则内容的修改为回放视频。
在另一个实例中,当虚拟对象OV是第二文字处理器窗口时,用户可以使用第一终端110的虚拟键盘来修改其内容。
然后,为了同步目的,可以将内容修改发送到第二终端120。
可以重复本方法的各步骤以便显示多个虚拟对象OV。
Claims (12)
1.一种在混合现实中显示至少一个虚拟对象(OV,F3)的方法,其特征在于,所述方法包括由第一终端(110)执行的以下步骤:
·发送步骤(E410,E510),用于发送定位在计算机应用程序的第一窗口(F1)的一部分(PF1)上的指针(P)的至少一个位置数据元素(DP),所述第一窗口(F1)由第二终端(120)显示;
·接收步骤(E420,E520),用于接收与所述第一窗口(F1)的所述一部分(PF1)相关的至少一个数据元素(DPF1);以及
·处理步骤(E430,E530),用于处理与所述一部分(PF1)相关的所述至少一个数据元素(DPF1),以便基于与所述一部分(PF1)相关的所述至少一个数据元素(DPF1)在混合现实中显示所述至少一个虚拟对象(OV,F3)。
2.根据权利要求1所述的方法,其中所述至少一个虚拟对象是所述计算机应用程序的第二窗口(F3)。
3.根据权利要求1或权利要求2所述的方法,所述方法进一步包括由所述第一终端(110)执行的以下步骤:
·用于获取显示所述第一窗口(F1)的第二终端(120)的显示设备(E)在所述第一终端(110)和所述第二终端(120)所定位的真实环境(ER)中的至少一个位置数据元素(DPE)的获取步骤(E502);以及
·用于获取所述指针(P)的至少一个位置数据元素(DP)的获取步骤(E504),所述指针(P)的所述至少一个位置数据元素(DP)是所述指针(P)相对于所述显示设备(E)的位置数据元素(DP)。
4.根据权利要求1至3中任一项所述的方法,其中在检测(E506)用于显示所述至少一个虚拟对象(OV,F3)的命令(C)时执行所述发送步骤(E510)。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述接收步骤包括接收:
·所述第一窗口(F1)的所述部分(PF1)的至少一个抓取,其为数字图像格式;和/或
·与所述第一窗口(F1)的所述一部分(PF1)相关的至少一个上下文数据元素;和/或
·与所述第一窗口(F1)的所述一部分(PF1)相关的至少一个元数据元素。
6.根据权利要求1至5中任一项所述的方法,其中所述第一终端(110)是混合现实头戴式显示器或混合现实眼镜。
7.根据权利要求1至6中任一项所述的方法,所述方法进一步包括由所述第二终端(120)执行的缩小步骤(F518),用于缩小所述第一窗口(F1)的所述一部分(PF1)。
8.根据权利要求7以及根据权利要求2至4中任一项所述的方法,所述方法进一步包括由所述第二终端(120)执行的确定步骤(F512),用于根据所述指针(P)的所述至少一个位置数据元素(DP)确定所述第一窗口(F1)的所述一部分(PF1)。
9.一种混合现实终端(110),其特征在于,所述混合现实终端(110)适于执行根据权利要求1至6中任一项所述的方法。
10.一种计算机程序(P1),其特征在于,在由计算机执行所述程序(P1)时,所述计算机程序(P1)包括用于执行根据权利要求1至6中任一项所述的方法的各步骤的指令。
11.一种计算机可读数据介质,其特征在于,所述计算机可读数据介质存储包括用于执行根据权利要求1至6中任一项所述的方法的各步骤的指令的计算机程序(P1)。
12.一种系统(100),其特征在于,所述系统(100)适于执行根据权利要求7或权利要求8所述的方法,并且包括根据权利要求9所述的终端(110)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1761321A FR3074331A1 (fr) | 2017-11-28 | 2017-11-28 | Procede d'affichage en realite mixte d'au moins un objet virtuel, terminal et systeme associes |
FR1761321 | 2017-11-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109840042A true CN109840042A (zh) | 2019-06-04 |
Family
ID=60955308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811437333.5A Pending CN109840042A (zh) | 2017-11-28 | 2018-11-28 | 在混合现实中显示虚拟对象的方法以及相关终端和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10810801B2 (zh) |
EP (1) | EP3489811B1 (zh) |
CN (1) | CN109840042A (zh) |
FR (1) | FR3074331A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3067546A1 (fr) * | 2017-06-19 | 2018-12-14 | Orange | Procedes d’identification operateur de trames a emettre, et de verification d’appartenance operateur, un dispositif de communication et une passerelle de communication |
TWI790430B (zh) * | 2020-04-13 | 2023-01-21 | 宏碁股份有限公司 | 擴增實境系統以及利用擴增實境眼鏡顯示虛擬螢幕的方法 |
US11175791B1 (en) * | 2020-09-29 | 2021-11-16 | International Business Machines Corporation | Augmented reality system for control boundary modification |
JP2022137622A (ja) * | 2021-03-09 | 2022-09-22 | キヤノン株式会社 | ウェアラブル端末、その制御方法及びプログラム |
US20230376161A1 (en) * | 2022-05-19 | 2023-11-23 | Microsoft Technology Licensing, Llc | Mouse cursor and content migration between 3d space and physical flat displays |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010257123A (ja) * | 2009-04-23 | 2010-11-11 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
US20150205106A1 (en) * | 2014-01-17 | 2015-07-23 | Sony Computer Entertainment America Llc | Using a Second Screen as a Private Tracking Heads-up Display |
US20160147492A1 (en) * | 2014-11-26 | 2016-05-26 | Sunny James Fugate | Augmented Reality Cross-Domain Solution for Physically Disconnected Security Domains |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858720B2 (en) * | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
-
2017
- 2017-11-28 FR FR1761321A patent/FR3074331A1/fr active Pending
-
2018
- 2018-11-26 EP EP18208319.6A patent/EP3489811B1/fr active Active
- 2018-11-27 US US16/201,242 patent/US10810801B2/en active Active
- 2018-11-28 CN CN201811437333.5A patent/CN109840042A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010257123A (ja) * | 2009-04-23 | 2010-11-11 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
US20120032955A1 (en) * | 2009-04-23 | 2012-02-09 | Kouichi Matsuda | Information processing apparatus, information processing method, and program |
US20150205106A1 (en) * | 2014-01-17 | 2015-07-23 | Sony Computer Entertainment America Llc | Using a Second Screen as a Private Tracking Heads-up Display |
US20160147492A1 (en) * | 2014-11-26 | 2016-05-26 | Sunny James Fugate | Augmented Reality Cross-Domain Solution for Physically Disconnected Security Domains |
Also Published As
Publication number | Publication date |
---|---|
FR3074331A1 (fr) | 2019-05-31 |
US20190164347A1 (en) | 2019-05-30 |
EP3489811A1 (fr) | 2019-05-29 |
US10810801B2 (en) | 2020-10-20 |
EP3489811B1 (fr) | 2023-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11144177B2 (en) | Application execution method by display device and display device thereof | |
CN109840042A (zh) | 在混合现实中显示虚拟对象的方法以及相关终端和系统 | |
US11320957B2 (en) | Near interaction mode for far virtual object | |
US11042294B2 (en) | Display device and method of displaying screen on said display device | |
CN109164964B (zh) | 内容分享方法、装置、终端及存储介质 | |
EP3129871B1 (en) | Generating a screenshot | |
US20190340821A1 (en) | Multi-surface object re-mapping in three-dimensional use modes | |
EP3686723A1 (en) | User terminal device providing user interaction and method therefor | |
US20140362002A1 (en) | Display control device, display control method, and computer program product | |
US20150063785A1 (en) | Method of overlappingly displaying visual object on video, storage medium, and electronic device | |
US20160070460A1 (en) | In situ assignment of image asset attributes | |
US10198831B2 (en) | Method, apparatus and system for rendering virtual content | |
US9519355B2 (en) | Mobile device event control with digital images | |
US20190324613A1 (en) | Display interface systems and methods | |
CN113806054A (zh) | 任务处理方法及装置、电子设备和存储介质 | |
WO2016178850A1 (en) | Gpu operation for content rendering | |
KR20210083016A (ko) | 전자 장치 및 그의 제어 방법 | |
KR20190063853A (ko) | 입력 필드의 이동 방법 및 장치 | |
US11093041B2 (en) | Computer system gesture-based graphical user interface control | |
CN112789830A (zh) | 用于信道响应的多模式信道不可知渲染的机器人平台 | |
KR101730381B1 (ko) | 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
EP3635527B1 (en) | Magnified input panels | |
KR102496603B1 (ko) | 어플리케이션 실행 화면의 위치 선정 방법 | |
CN117575882A (zh) | 顶点缓冲区的更新方法、装置及存储介质 | |
JP2013046410A (ja) | 情報及び命令に連結した画像によるブラウジング及び/又は命令実行の方法及びその記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |