CN113281905A - 头戴式显示器内容捕获和共享 - Google Patents
头戴式显示器内容捕获和共享 Download PDFInfo
- Publication number
- CN113281905A CN113281905A CN202110158076.7A CN202110158076A CN113281905A CN 113281905 A CN113281905 A CN 113281905A CN 202110158076 A CN202110158076 A CN 202110158076A CN 113281905 A CN113281905 A CN 113281905A
- Authority
- CN
- China
- Prior art keywords
- video
- virtual reality
- goggle
- cameras
- shaped body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/06—Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0123—Head-up displays characterised by optical features comprising devices increasing the field of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
Abstract
虚拟现实护目镜包括护目镜形主体,所述主体上安装有多个摄像头。显示器由护目镜形主体支撑。支撑件在护目镜形主体的各侧面之间延伸并且包括多个摄像头。电路通过连接从多个摄像头接收视频,其中所述视频包括围绕所述护目镜大约360度的合成视场,所述电路通过连接到无线通信设备将所述接收的视频发送到网络化处理服务以及从网络化处理服务接收立体三维虚拟现实视频,所述电路还通过进一步连接提供用于显示的所接收拼接立体三维虚拟现实视频。
Description
相关申请案交叉申请
本申请要求于2016年5月2日递交的发明名称为“头戴式显示器内容捕获和共享”的第15/144,112号美国非临时专利申请案的在先申请优先权,该在先申请的内容以引入的方式并入本文。
技术领域
本发明涉及内容捕获和内容共享,尤其涉及用于捕获和共享虚拟现实内容的头戴式显示器。
背景技术
为捕获足够的360度虚拟现实视图视频,目前有许多独立产品可用于从多个方向捕获视频。所述捕获的视频可以通过单独的计算机或基于云的应用程序拼接在一起,并且可用于虚拟现实头戴式显示器用于观看所产生的虚拟现实视频。从捕获、感测再到观看的过程可能很麻烦,并且涉及使用若干不同的设备。
发明内容
虚拟现实护目镜包括护目镜形主体,所述主体上安装有多个摄像头。显示器由护目镜形主体支撑。支撑件在护目镜形主体的各侧面之间延伸并且包括多个摄像头。电路通过连接从多个摄像头接收视频,其中所述视频包括围绕所述护目镜大约360度的合成视场,所述电路通过连接到无线通信设备将所述接收的视频发送到网络化处理服务以及从网络化处理服务接收立体三维虚拟现实视频,所述电路还通过进一步连接提供用于显示的所接收拼接立体三维虚拟现实视频。
一种方法包括:从用户佩戴的虚拟现实护目镜所支撑的多个摄像头捕获视频,其中所述视频包括围绕用户大约360度的合成视场;将所接收的视频发送到网络化处理服务以将所接收的视频拼接成立体三维虚拟现实视频;从网络化处理服务接收所拼接的立体三维虚拟现实视频;在虚拟现实护目镜的显示器中显示所接收的拼接立体三维虚拟现实视频。
一种计算机可读存储设备,其上存储有指令可供电路执行以执行操作。所述操作包括:从用户佩戴的虚拟现实护目镜所支撑的多个摄像头捕获视频,其中所述视频包括围绕用户大约360度的合成视场;将所接收的视频发送到网络化处理服务以将所接收的视频拼接成立体三维虚拟现实视频;从网络化处理服务接收所拼接的立体三维虚拟现实视频;在虚拟现实护目镜的显示器中显示所接收的拼接立体三维虚拟现实视频。
附图说明
图1是根据示例性实施例所述的虚拟现实头戴式显示器系统的透视框图;
图2是根据示例性实施例所述的头戴式虚拟现实(virtual reality,简称VR)捕获、观看和共享系统的示意框图;
图3A和图3B分别是根据示例性实施例所述的头戴式显示器系统的前透视框图和后透视框图;
图4是根据示例性实施例所述的头戴式显示器头带的部分纵向框图,其中示出所述带中或所述带上支撑的摄像头和CSI带状电缆;
图5是根据示例性实施例所述的带的详细框图,其中所述带包含通过连接器上的按扣连接到柄的CSI带状电缆;
图6是根据示例性实施例所述的头戴式显示器系统的设备和电路的示意框图;
图7是根据示例性实施例所述的用户在操作VR系统时使用的示例性图形用户界面;
图8是根据示例性实施例所述的提供用于选择社交媒体共享机制的复选框的示例性设置屏幕;
图9是根据示例性实施例所述的捕获、上传、观看和共享3D VR视频的方法的流程框图;
图10是示出根据示例性实施例所述的用于实现算法和执行方法的电路的框图。
具体实施方式
以下结合附图进行详细描述,所述附图是描述的一部分,并通过图解说明的方式示出可以实施本发明的具体实施例。这些实施例将充分详细描述使本领域技术人员能够实施本发明而且应该明白的是可以使用其它实施例并且在不脱离本发明的范围的情况下可以做出结构上、逻辑上、电学上的改变。因此,以下描述的示例性实施例并不当作限定,本发明的范围由所附权利要求书界定。
本文描述的功能或算法可以在一实施例中的软件中实施。该软件可包含计算机可执行指令,这些计算机可执行指令存储在计算机可读介质上或者计算机可读存储设备上,如一个或多个非瞬时性存储器或其它类型的本地或联网的硬件存储设备。此外,这些功能对应模块,这些模块可以是软件、硬件、固件或其任意组合。多个功能可根据需要在一个或多个模块中执行,所描述的实施例仅为示例。该软件可在数字信号处理器、ASIC、微处理器上执行或者在智能手机或便携式计算机、个人计算机、服务器、或其它计算机系统等其它类型的计算机系统上运行的处理器上执行,从而将这些计算机系统转换成一个专门编程的机器。
图1是虚拟现实头戴式显示器(head mounted display,简称HMD)系统100的透视框图。系统100包括护目镜形主体110,其包含安装在所述主体110内的显示器115,而且佩戴所述系统100的用户可以观看所述主体110中的显示器115。显示器115在图1中无法看见,但是以框图形式显示在图2中。所述主体110的形状像一副护目镜可以由用户佩戴,具有适当的轮廓,由用户的鼻梁支撑,并将所述显示器115在所述主体110内与所述用户的眼睛隔开一定距离,以使所述用户可以观看所述显示器115。可以为每只眼睛使用单独的显示器,以提供实现三维虚拟现实视图的功能。目前现有的合适显示器包括具有为控制接口提供可选投影图像的透视显示器,并且可以结合到所述系统100中。
系统100还包括多个摄像头,其用于捕获佩戴系统100的用户头部周围的多个视场。侧柄120、122连接到所述主体110,其位置可以从用户的脸部正面延伸到用户的耳朵,以类似于眼镜柄的方式提供进一步的支撑。所述柄120和122可以可选地通过123处的铰链连接到所述主体,从而有助于将所述系统100折叠成更小的携带大小。所述铰链123可能仅是所述柄的较薄部分,允许所述铰链123处的柄弯曲。所述主体110的侧面也可以包括铰链,以便于折叠。当所述用户佩戴系统100时,带125可以从柄的端部围绕用户头部的后部延伸。
在一实施例中,所述摄像头可以包括安装在所述主体110左侧的摄像头130,其具有用户左侧的视场。摄像头132(图1中无法看见)可以类似地安装在所述主体的右侧,以提供用户右侧的视场。134和136处指示的两个摄像头可以安装在所述带125上,以提供用户后面的视场,也称为相对于佩戴者或所述主体110本身的后视图。一个或多个其他摄像头137、138可以安装在所述主体110的顶部上,以提供用户头部上方的视场。每个摄像头还可以包括一个或多个麦克风以捕获音频。第六摄像头或多个摄像头139可以被支撑在所述主体110的正面上,以捕获佩戴所述系统100的用户面前视场的视频,又称为相对于佩戴者或主体110本身的前视图。
在一实施例中,与所述带125结合的所述柄120和122包括支撑件,所述支撑件既将所述护目镜形主体110固定在佩戴者头上,又提供支撑提供侧视场和后视场的多个摄像头的结构。所述支撑件可以包括其他结构,例如加长柄,其可以在所述柄的端部处支撑后向摄像头提供后视场。在一实施例中,所述支撑件可以是单带,其从所述护目镜形主体围绕用户头部延伸,上面支撑有多个摄像头以提供侧视场和后视场。还可以使用其他结构,帮助将所述护目镜固定在佩戴者头上上并提供所需的视场。
在一些实施例中,所述摄像头的各种视场在某种程度上重叠,以允许通过共同的三角测量技术从捕获的视频中提取深度信息。可以通过采用外推法和其他技术的拼接功能来估计不重叠的区域。拼接是一种已知的过程,它将图像与重叠的视场合并,以产生比任何单个图像视场更宽的视图。如下面进一步描述,若干基于云的服务可用于执行拼接服务。
附加摄像头可以定位在所述主体110、柄120、122和带125上,在360度侧视图并不是全部围绕用户头部的情况下,可以提供其他用于重要部分的重叠视场,从而有助于根据用户的角度创建更稳定的3D虚拟现实(virtual reality,简称VR)视图。在一实施例中,由多个摄像头捕获的视频包括围绕所述系统100佩戴者的合成视场,其中所述合成视场为大约360度。如上所述,可以估计大约360度视图中可能存在的间隙。如果所述间隙太大无法估计,则合成视场不再被认为是大约360度。侧柄120可包含一个或多个摄像头,如147和148处的柄120所示。侧柄122还可包含类似的摄像头。
在一实施例中,系统100可以包括电路140,其从每个摄像头接收视频(可选地包括音频)。所述电路140可以使用Wi-Fi、蜂窝或其他网络设备142将捕获的视频上传到连接到所述网络的处理资源145,例如基于云的资源。在一些实施例中,所述电路140和网络设备142可以内置在所述主体110中并由其支撑。
在一实施例中,所述显示器设计在系统100的主体110中。所述摄像头的视频由电路140接收,其中所述电路140可以使用网络设备142经由蜂窝或Wi-Fi连接将视频提供给所述处理设备145。处理设备145将运行JUMP Assembler汇编程序等服务来拼接视频。拼接的3D视频发送回所述系统100,以通过电路140驱动的内置显示器显示。
在一些实施例中,所述摄像头的视频可以通过电路140并经由微型USB接口发送到智能手机143。所述智能手机143可以向所述处理设备145提供显示内容和连接。处理设备145接收的拼接视频可以通过所述智能手机143显示器上透过所述护目镜形主体110可见的分屏显示。所述屏幕可以分成两部分,为所述护目镜主体110的佩戴者的每只眼睛提供单独的显示,以提供拼接的3D虚拟现实视频的立体视图。
在更进一步的实施例中,所述显示器可以设计在所述系统100的主体110中。所述摄像头的视频可以经由WirelessHD(高清视频内容无线协议)连接并通过网络设备142发送到与所述主体110靠近但分开(例如在用户的口袋中)的便携式计算设备。所述计算设备可以执行拼接并将所述拼接立体视频返回所述电路140,以驱动所述主体110的内部显示。
在一实施例中,智能电话143可以由系统110的主体110提供支撑,如图所示,或是位于所述主体110的前外表面上,或是位于所述主体110的侧面或底部上面或内部且不会阻挡用户通过透视显示器115观看的视线。当如图所示安装时,所述智能电话可以包括提供前视图的摄像头139。摄像头139还可以与智能电话分离并且由所述主体110直接支撑。在进一步的实施例中,所述智能电话143可以与所述主体110分离并且经由有线或短距离无线机制连接到电路140。所述智能电话可以提供无线通信设备142的通信功能。
所述智能电话143可以具有触摸界面,以通过集成到系统100中的一个或多个应用程序提供基于图标的触摸界面,其中所述触摸界面用于控制将视频捕获并发送到处理资源145的过程以及接收拼接的立体虚拟现实3D视频。所述术语“立体”是指使用以略微不同的角度拍摄的物体或场景的两个图像,并且当一起观看时产生深度和立体的影像。然后,所述电路140可以通过向每只眼睛提供每个所述单独显示115的立体图像来驱动显示器115,以向用户提供虚拟现实体验。
所述立体图像还可以经由通过触摸界面提供的用户界面与他人共享,所述触摸界面可以是智能手机的触摸屏,也可以是绑定到所述电路140的头戴式显示器系统100的触摸面板。在一些实施例中,可以通过虚拟现实盯视输入、语音或一些其他输入方法来实现触摸界面功能。因此,视频捕获、上传、观看和共享的所有功能可以由单个集成单元执行。
在进一步的实施例中,所述电路140设置在所述主体110的一侧,以使其不会干扰透视显示器115。所述电路140可用于通过所述主体110上的集成电路和机械、盯视跟踪摄像头,麦克风或触摸传感器153实现收发器功能和用户界面功能,用于控制摄像头对视频的捕获、上传、观看和共享。
在更进一步的实施例中,用户界面可以由所述显示器115提供,并且通过所述摄像头捕获的用户动作进行交互并提供给所述电路140。所述捕获的典型控制可包括“记录”和“停止”。还可以提供编辑控件以剪辑视频部分。每个捕获的视频馈送可以包括同步的时间信息,并且可选地包括捕获视频的摄像头的标识。用于上传的典型控件可以包括从捕获视频(其可以由用户命名或者简单地加盖时间戳)的目录中选择视频,也可以是上传图标或其他选择机制。共享可以通过输入用户联系信息或选择用户与现有列表共享视频来完成。
在一实施例中,所述捕获的视频和拼接的立体3D VR视频的上传、共享和观看可以在捕获时完成,为用户提供近实时体验,而对于获得共享拼接视频的用户,仅网络可以造成延迟,然后处理延迟,但延迟可以随着性能的提高而减小。在一些实施例中,可以在活动开始时为单一活动设置捕获、上传和共享。所述共享可以通过任何社交媒体机制完成,也可以简单地涉及发送指向所述处理资源145提供的拼接3D VR视频的链接的短信或电子邮件。
在所述系统100的一个示例使用中,用户可以在跳伞或任何其他活动时佩戴系统100。开始所述视频捕获可以通过简单地选择跳伞中任何点的记录和共享特征来完成。选择记录和共享功能可启动视频捕获并上传到云端进行拼接以及与可以在自己的头戴式3D VR显示器上观看和收听的他人共享,其中所述头戴式3D VR显示器可以提供类似的集成捕获、上传、观看和共享功能,也可以不提供。许多其他活动,例如高空滑索、滑雪、徒步旅行、登山、骑自行车等,都是快速捕捉3D体验和与他人共享3D VR版本的候选活动。
在使用先前的视频捕捉机制进行跳伞时,尝试执行共享3D VR所需的功能,这可能需要单独的应用程序和设备才能捕获视频、查找Wi-Fi热点、上传,同时又需要切换多个设备和应用程序,例如社交媒体,虽然几乎是不可能,但如果可能的话,也非常不方便。
图2是头戴式虚拟现实捕获、观看和共享系统200的示意框图,示出了可以用于实现系统100的组件。所述图示出了连接到所述电路220的多个摄像头210,其驱动左显示器225和右显示器230,以向用户提供3D内容。所述电路还提供235处指示的无线连接以及一些编辑功能,其中所述无线连接用于发送捕获视频并接收用于观看的拼接视频。所述电路还可以运行浏览器通过基于Web的界面与远程资源连接,其中所述远程资源可以包括提供服务的网站,所述服务包括用于生成3D VR内容的视频拼接以及可以由用户观看并与其他用户通过文本、电子邮件、社交媒体等其他方法共享的内容的链接。所述电路220还可以生成图形用户界面以供所述显示器225和230显示。
如前所述,在一些实施例中,所述显示器可以是透视显示器,其具有将图形用户界面投影到所述显示器提供的视场的不同部分的功能。所述电路200可以包括具有处理资源和收发器的智能手机或其他电路,并且可以由视场外的主体110支撑,以便不阻碍用户在参与活动期间的视线。在进一步的实施例中,典型的视场可以显示在不透视的非透明显示器上,因此用户可以观察他们的实际环境。
图3A和图3B是虚拟现实头戴式显示器系统300的前透视图和后透视图。系统300包括头戴式显示器310,其由连接到所述头戴式显示器310的侧面的两个柄315和320支撑,以便所述柄在用户的头部上支撑所述头戴式显示器310。头戴式显示器带325还可以连接到所述柄315和320的端部,以在佩戴时围绕用户的头部延伸。
另外,所述头戴式显示器带325可包括多个摄像头330、332以及麦克风335、337,可以在佩戴所述头戴式显示器系统300时从用户的后面提供图像和声音。一对CSI(联盟制定的摄像头接口规范)带状电缆在340、342处示出,安装在所述带325上面或内部。所述电缆340和342连接到所述摄像头330、332,以通过位于所述柄315、320的端部中的带状电缆插座345、347上的按扣提供发送所述头戴式显示器的信号。麦克风335、337可以利用I2S(集成芯片间声音-设计用于承载数字数据的通信协议)总线来将信号传送到所述柄。
在一实施例中,所述柄包含用于将所述摄像头和麦克风信号提供给电路220的导体,其中所述电路220可安装在所述柄315、332中。在进一步的实施例中,一个或多个附加摄像头350、352可以安装在所述头戴式显示器310的顶部353上或以其他方式支撑,并且摄像头354、356、358、360由所述柄310、320支撑。在实施例中,一个或多个前视摄像头361、362也可以由所述头戴式显示器的前部363支撑,例如靠近所述头戴式显示器310不会显著影响用户通过所述头戴式显示器观看的视场,其中所述显示器是透视显示器。
在一实施例中,柄320和322通过铰链364和365连接到所述头戴式显示器310,其中所述铰链364和365允许所述柄320和322如367处所示向内折叠,以便所述系统300可以紧凑存放。所述带325是柔性的,与所述电缆340、342一样。所述头戴式显示器310的顶部353也可以通过使用将所述顶部353连接到所述头戴式显示器310的前部363的铰接部分372向下折叠,如箭头370所示。
图4是头戴式显示器头带400的部分纵向框图,其中示出所述带400中或所述带400上支撑的摄像头410和CSI带状电缆415。麦克风420也支撑在所述带400中或所述带400上,并且连接到I2S接口电缆425。如箭头430所示,CSI带状电缆415和I2S接口电缆425显示为穿过所述带400向其中一个所述柄延伸。
图5是示出了带500的详细框图,其中所述带500包含通过连接器515上的按扣连接到柄510的CSI带状电缆505。一个或多个夹具520可用于固定到所述电缆505,从而将所述带500固定到所述柄510。所述I2S音频电缆可以通过所述连接器515上的按扣进行类似的连接。
图6是示出了通常在600处的装置和电路的框图。多个摄像头610、612、614、616和麦克风620、622、624、626显示经由CSI和I2S电缆连接到630、632处指示的处理器。在一实施例中,每个所述处理器630、632中的一个驻留在头戴式显示器系统的相应柄中,并执行与捕获并处理视频和音频有关的功能。所述处理器630和632可以通过USB(通用串行总线)电缆634、636连接到USB集线器640。所述USB集线器640可以由所述头戴式显示器310支撑,其集合来自电缆634、636的信号,并通过通信连接642将这些信号提供给智能电话645以作进一步处理,例如无线发送进行拼接。所述智能手机可以由所述头戴式显示器支撑,如图1所示,也可以由一个或多个柄支撑,还可以由用户(例如,所述头戴式显示器系统100的佩戴者)以其他方式支撑。在各种实施例中,所述通信连接642可以是有线或无线连接,其具有足够带宽用于传输视频和音频信息。
图7是用户在操作系统100、200和300时使用的示例性图形用户界面700。包括几个图标用于调用系统100、200和300执行的功能。可以选择记录图标710以开始记录,也可以选择停止图标715以停止记录。可以使用许多不同的方法来选择图标,比如主体110上支持的基于盯视、外部导航以及选择按钮或触摸屏,或者其他方法。
在一实施例中,可以选择拼接图标720以开始拼接刚刚记录的视频。所述拼接图标720还可以呈现另一屏幕用于从不同时间选择记录,所述屏幕可以按列表形式示出用于拼接,还可以提供用于设置拼接资源的界面。注意,在一些实施例中,所述视频可以在捕获时通过网络连接提供给拼接资源。
视图图标725可用于自动查看刚刚拼接的3D VR内容,还可以用于从可用的内容列表中选择内容。所述3D VR内容可以通过所述拼接服务提供的链接获得。在一些实施例中,界面700可以由所述拼接资源提供并通过所述系统100上运行的浏览器或浏览器应用程序来观看。所述内容可以通过所述电路上运行的浏览器或通过设计用于观看3D VR内容的应用程序来观看。所述应用程序或远程服务器或提供拼接的资源等其他资源可以提供一些基本编辑功能,例如,剪辑功能,其可以缩短要共享的3D VR内容,甚至删除所述内容。
在所述系统100、200、300的一些使用中,所述用户可能希望在活动正在发生时共享3D VR内容。自动记录功能可用于允许用户获得所述系统记录视频、发送视频进行拼接以及在拼接的同时快速共享立体3D VR内容用于观看。这种序列可以通过选择735处指示的自动记录设置图标来控制。选择图标允许在开始记录之前选择拼接资源和共享机制。一旦做出这些选择,便可以选择自动记录和共享图标740,然后将开始记录视频,与拼接资源通信,并且按照上述说明自动共享。
图8是提供用于选择社交媒体共享机制(例如,Facebook、LinkedIn或Twitter)的复选框815、817的示例性设置屏幕800。复选框819、821可用于选择用户通过一个或多个电子邮件或基于文本的地址或其他共享机制进行共享。可以提供图标825以添加用户。在一实施例中,通过所述选择可以创建记录和用于所述电路执行的自动共享脚本。在一实施例中,所述脚本(包括控制将视频上传到拼接服务的脚本)预先写入对应于选择的变量,提供使用这些服务的凭证。根据通过所述设置屏幕800选取的方框,向变量提供相应值。
继续图标可以将所述用户导航回屏幕700,其中按下单个记录和自动共享图标740时,执行所述记录和自动共享脚本,从而启动并执行记录、传输和共享,无需用户执行进一步操作。所述共享将经由所述电路200通过从所述拼接资源获得链接来与拼接资源协调,其中所述立体3D VR内容可以在提供的同时近乎实时地观看,并且提供指向所提供共享机制和地址的链接。
图9是根据示例性实施例所述的捕获、上传、观看和共享3D VR视频的方法900的流程框图。在910处,用户确定自己想要捕获360度3D视频并且佩戴上采用可选智能电话或电路140、200、300的虚拟现实头戴式显示器系统100。在920处,用户可以使用所述图形用户界面700来指示所述系统100开始捕获视频。在一实施例中,当所述摄像头和麦克风记录视频和音频时,所述用户可以如925所示保持静止不动。在一些实施例中,用户可以在记录时四处移动。在一些实施例中,所述视频和音频可以在830处通过Wi-Fi或蜂窝网络实时上传。在535处,所述用户可以使用图形用户界面700来指示所述系统100停止视频捕获。
所述用户可以在940处接收包括立体3D VR内容的拼接合成视频,并且可以可选地对其编辑,例如通过剪辑。用户可以在945处打开VR中的共享页面,所述页面可以由执行所述视频拼接的资源托管,还可以通过这种共享页面在950处选择接收者进行共享。在955处,所述用户可以向接收者发送立体3D VR链接,使所述接收者享受观看乐趣。
图10是示出根据示例性实施例所述的用于实现算法和执行方法的电路的框图。所有组件不需要在各种实施例中使用,并且如上所述,所述电路可以分成一起操作的不同组件,包括用于驱动所述显示器、提供网络通信,执行浏览器功能,提供接口的电路。图10还表示智能电话,例如可用于所述电路执行的一个或多个功能的移动电话。
计算机1000形式的一个示例计算设备可以包括处理单元1002、存储器1003、SD卡或类似存储设备等可移动存储器1010以及不可移动存储器1012。虽然示例计算设备被图示和描述为计算机1000,但是计算设备在不同的实施例中可以是不同的形式。例如,所述计算设备可以是智能电话或电路,其利用如图10所示和所述的一个或多个元件。
存储器1003可以包括易失性存储器1014和非易失性存储器1008。计算机1000可以包括或者可以访问计算环境,该计算环境包括各种计算机可读介质,例如易失性存储器1014和非易失性存储器1008、可移动存储1010和不可移动存储1012。计算机存储包括随机存取存储器(random access memory,简称RAM)、只读存储器(read only memory,简称ROM)、可擦除可编程只读存储器(erasable programmable read-only memory,简称EPROM)和电可擦除可编程只读存储器(electrically erasable programmable read-onlymemory,简称EEPROM)、闪存或其他存储器技术或任何其他能够存储计算机可读指令的介质。
计算机1000可以包括或可以访问包括输入1006、输出1004和通信连接1016的计算环境。输出1004可以包括可以用作输入设备的显示设备,例如触摸屏。所述输入设备1006可以包括以下一种或多种:触摸屏、触摸板、麦克风、照相机、一个或多个设备专用按钮、集成在所述计算机1000内或通过有线或无线数据连接连接到所述计算机1000内的一个或多个传感器,以及其它输入设备。在一实施例中,所述计算机1000使用通信连接在联网环境中工作,以连接到一个或多个远程计算机,如数据库服务器和视频拼接服务。
存储在计算机可读介质上的计算机可读指令可由所述计算机1000的处理单元1002执行。RAM和ROM是产品的一些示例,所述产品包括如存储设备的非瞬时性计算机可读介质。术语“计算机可读介质”和“存储设备”不包括载波,只要认为载波过于短暂。
示例如下:
1、在示例1中,虚拟现实护目镜包括护目镜形主体110,所述主体上安装有多个摄像头130、132、137、138。显示器225、230由所述护目镜形主体110支撑在所述护目镜形主体110的佩戴者可观看的位置。支撑件120、122、125在所述护目镜形主体110的侧面之间延伸,并且包括多个摄像头134、136、147、148。电路140通过连接从多个摄像头接收视频,其中所述视频包括围绕所述护目镜大约360度的合成视场,所述电路140通过连接到无线通信设备142将所述接收的视频发送到网络化处理服务145以及从网络化处理服务145接收立体三维虚拟现实视频,所述电路140还通过进一步连接提供显示器225、230上接收的拼接立体三维虚拟现实视频。
2、示例1的虚拟现实护目镜,其中所述护目镜形主体110具有支撑在所述主体左侧的第一主体摄像头130和支撑在所述主体右侧的第二主体摄像头132,所述摄像头130、132分别提供左右方向视场。
3、示例2的虚拟现实护目镜,其中所述护目镜形主体110具有支撑在主体正面上的第三主体摄像头139,所述摄像头139提供前向视场。
4、示例3的虚拟现实护目镜,其中所述护目镜形主体110具有支撑在主体顶面上的第四主体摄像头137、138,所述第四主体摄像头137、138提供上向视场。
5、示例4的虚拟现实护目镜,其中所述支撑件包括两个柄120、122,其中每个柄的一端连接到所述护目镜形主体110的不同侧,并且带125将每个柄的另一端彼此连接,其中所述支撑件中包括的多个摄像头134、136由所述带125支撑并提供后向视场。
6、示例1-5中任一示例所述的虚拟现实护目镜,其中所述无线通信设备142包括蜂窝收发器。
7、示例6的虚拟现实护目镜,其中所述蜂窝收发器包括由所述护目镜形主体110支撑的智能电话143。
8、示例1-7中任一示例所述的虚拟现实护目镜,其中所述电路140用于提供用户界面700,其包括记录选项选择器710和共享所述立体三维虚拟现实视频的选项730。
9、示例8的虚拟现实护目镜,其中所述用户界面700、800包括用于识别网络化处理服务的设置选项735以及获得共享所述立体三维虚拟现实视频的用户815、817、819、821、815。
10、示例8-9中任一示例所述的虚拟现实护目镜,其中所述用户界面700包括记录和自动共享选项740,所述记录和自动共享选项740选择后所述护目镜开始记录视频,自动将视频发送到网络化处理服务145,并与所述用户819、821共享所述视频。
11、在示例11中,一种方法900包括从用户佩戴的虚拟现实护目镜所支撑的多个摄像头捕获视频920,其中所述视频包括大约360度的合成视场,将所接收的视频发送(930)到网络化处理服务以将所接收的视频拼接成立体三维虚拟现实视频,从网络化处理服务940接收所拼接的立体三维虚拟现实视频,并在虚拟现实护目镜的显示器中显示(945)所接收的拼接立体三维虚拟现实视频。
12、示例11的方法还包括在所述显示器上提供用户界面700,所述用户界面包括记录选项选择器710和用于共享所述立体三维虚拟现实视频的选项730。
13、示例12的方法,其中所述用户界面700包括用于识别网络化处理服务的设置选项735以及获得共享所述立体三维虚拟现实视频的用户815、817、819、821、825。
14、示例13的方法,其中所述用户界面700包括记录和自动共享选项740,所述记录和自动共享选项740选择后所述护目镜开始记录视频920,自动将视频发送到网络化处理服务930,并与所述用户955共享所述视频。
15、示例11-14中任一示例所述的方法,其中所述虚拟现实护目镜包括护目镜形主体110,所述护目镜形主体110具有用于将所述主体固定在所述佩戴者身上的支撑件;其中包括围绕所述护目镜形主体大约360度的合成视场的视频由多个摄像头提供,所述多个摄像头包括支撑在所述主体左侧的第一主体摄像头130以及支撑在所述主体右侧的第二主体摄像头132,所述两个摄像头130、132分别提供左右方向视场;支撑在所述主体正面的第三主体摄像头139,所述第三主体摄像头139提供前向视场;支撑在主体顶面上的第四主体摄像头137、138,所述第四主体摄像头137、138提供上向视场;其中所述支撑件包括两个柄120、122,其中每个柄的一端连接到所述主体的不同侧,并且带125将每个柄的另一端彼此连接,其中所述支撑件中包括的多个摄像头134、136由所述带支撑并提供后向视场。
16、在示例16中,计算机可读存储设备1003上存储有指令,用于电路1002执行以执行操作。所述操作包括从用户佩戴的虚拟现实护目镜所支撑的多个摄像头捕获(920)视频,其中所述视频包括大约360度的合成视场,将所接收的视频发送(930)到网络化处理服务以将所接收的视频拼接成立体三维虚拟现实视频,从网络化处理服务接收(940)所拼接的立体三维虚拟现实视频,并在虚拟现实护目镜的显示器中显示(940)所接收的拼接立体三维虚拟现实视频。
17、示例16的计算机可读存储设备,其中所述操作还包括在所述显示器上提供用户界面700、945,所述用户界面包括记录选项选择器710和用于共享所述立体三维虚拟现实视频的选项730。
18、示例16-17中任一示例所述的计算机可读存储设备,其中所述用户界面包括用于识别所述网络化处理服务的设置选项735以及获得共享所述立体三维虚拟现实视频的用户815、817、819、821、825。
19、示例18的计算机可读存储设备,其中所述用户界面700包括记录和自动共享选项740,所述记录和自动共享选项740选择后所述护目镜开始记录视频,自动将视频发送到网络化处理服务,并与所述用户共享所述视频。
20、示例16-19中任一示例所述的计算机可读存储设备,其中所述电路包括智能电话140。虽然上文详细描述了几个实施例但是可能进行其它修改。例如为了获得期望的结果附图中描绘的逻辑流不需要按照所示的特定顺序或者先后顺序。可以提供其它步骤或者从所描述的流程中去除步骤,所描述的系统中可以添加或移除其它组件。其它实施例可以在所附权利要求书的范围内。
Claims (20)
1.一种虚拟现实护目镜,其特征在于,包括:
护目镜形主体;
左侧显示器,由所述护目镜形主体支撑在所述护目镜形主体的佩戴者左眼可看见的位置;
右侧显示器,由所述护目镜形主体支撑在所述护目镜形主体的佩戴者右眼可看见的位置;
多个摄像头,包括:
由所述护目镜形主体支撑的第一摄像头,用于捕获左侧方向视场的第一视频;
由所述护目镜形主体支撑的第二摄像头,用于捕获右侧方向视场的第二视频;以及
电路,连接所述多个摄像头,所述电路接收所述多个摄像头中的每一个摄像头所捕获的视频,将接收到的视频提供到连接于网络中的处理设备,并从所述处理设备接收立体三维虚拟现实视频,
所述左侧显示器和右侧显示器用于显示所述电路接收到的所述立体三维虚拟现实视频。
2.根据权利要求1所述的虚拟现实护目镜,其特征在于,所述左侧显示器和所述右侧显示器是透视显示器。
3.根据权利要求1所述的虚拟现实护目镜,其特征在于,所述多个摄像头还包括支撑在所述护目镜形主体正面的第三摄像头,所述第三摄像头提供前向视场的第三视频。
4.根据权利要求3所述的虚拟现实护目镜,其特征在于,所述第一摄像头支撑在所述护目镜形主体的左侧,所述第二摄像头支撑在所述护目镜形主体的右侧。
5.根据权利要求4所述的虚拟现实护目镜,其特征在于,所述多个摄像头还包括支撑在所述护目镜形主体顶面的第四摄像头,所述第四摄像头提供上向视场的第四视频。
6.根据权利要求1所述的虚拟现实护目镜,其特征在于,所述护目镜还包括:
支撑件,在所述护目镜形主体的侧面之间延伸。
7.根据权利要求6所述的虚拟现实护目镜,其特征在于,所述支撑件包括两个柄和头带,其中每个柄的一端连接到所述护目镜形主体的不同侧,所述头带与每个柄的另一端彼此连接。
8.根据权利要求7所述的虚拟现实护目镜,其特征在于,所述多个摄像头还包括由所述头带支撑的第五摄像头,提供后向视场的第五视频。
9.根据权利要求1所述的虚拟现实护目镜,其特征在于,所述电路接收到的所述多个摄像头中的每一个摄像头所捕获的视频,包括围绕所述护目镜360度的合成视场。
10.根据权利要求1所述的虚拟现实护目镜,其特征在于,所述电路通过无线通信设备将所述接收到的视频提供到连接于网络中的处理设备。
11.根据权利要求10所述的虚拟现实护目镜,其特征在于,所述无线通信设备包括智能电话。
12.根据权利要求1所述的虚拟现实护目镜,其特征在于,所述电路用于提供用户界面,其包括记录选项选择器和共享所述立体三维虚拟现实视频的选项。
13.根据权利要求12所述的虚拟现实护目镜,其特征在于,所述用户界面包括用于识别所述处理设备的设置选项以及获得共享所述立体三维虚拟现实视频的用户。
14.如权利要求12所述的虚拟现实护目镜,其特征在于,所述用户界面包括记录和自动共享选项,所述记录和自动共享选项选择后所述护目镜开始记录视频,自动将视频发送到所述处理设备,并与所述用户共享所述视频。
15.一种捕获和显示虚拟现实视频的方法,其特征在于,包括:
从用户佩戴的虚拟现实护目镜所支撑的多个摄像头捕获视频,其中所述多个摄像头包括由护目镜形主体支撑的第一摄像头和第二摄像头,所述第一摄像头用于捕获左侧方向视场的第一视频,所述第二摄像头用于捕获右侧方向视场的第二视频;
将所述多个摄像头中的每一个摄像头所捕获的视频提供到连接于网络中的处理设备;
从所述处理设备接收立体三维虚拟现实视频;以及
在所述虚拟现实护目镜的左侧显示器和右侧显示器中显示所接收的立体三维虚拟现实视频,其中所述左侧显示器由所述护目镜形主体支撑在所述护目镜形主体的佩戴者左眼可看见的位置,所述右侧显示器由所述护目镜形主体支撑在所述护目镜形主体的佩戴者右眼可看见的位置。
16.根据权利要求15所述的方法,其特征在于,还包括提供用户界面,所述用户界面包括记录选项选择器和用于共享所述立体三维虚拟现实视频的选项。
17.根据权利要求16所述的方法,其特征在于,所述用户界面包括用于识别所述处理设备的设置选项以及获得共享所述立体三维虚拟现实视频的用户。
18.根据权利要求17所述的方法,其特征在于,所述用户界面包括记录和自动共享选项,所述记录和自动共享选项选择后所述护目镜开始记录视频,自动将视频发送到所述处理设备,并与所述用户共享所述视频。
19.根据权利要求11所述的方法,其特征在于,所述多个摄像头还包括用于捕获不同于所述左侧方向视场也不同于所述右侧方向视场的摄像头,且所述多个摄像头中的每一个摄像头所捕获的视频,包括围绕所述护目镜360度的合成视场。
20.根据权利要求15-19任一所述的方法,其特征在于,所述立体三维虚拟现实视频是所述多个摄像头中的每一个摄像头所捕获的视频拼接而成的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/144,112 US9823477B1 (en) | 2016-05-02 | 2016-05-02 | Head mounted display content capture and sharing |
US15/144,112 | 2016-05-02 | ||
CN201780026779.6A CN109076165B (zh) | 2016-05-02 | 2017-04-28 | 头戴式显示器内容捕获和共享 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780026779.6A Division CN109076165B (zh) | 2016-05-02 | 2017-04-28 | 头戴式显示器内容捕获和共享 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113281905A true CN113281905A (zh) | 2021-08-20 |
Family
ID=60157458
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110158076.7A Pending CN113281905A (zh) | 2016-05-02 | 2017-04-28 | 头戴式显示器内容捕获和共享 |
CN201780026779.6A Active CN109076165B (zh) | 2016-05-02 | 2017-04-28 | 头戴式显示器内容捕获和共享 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780026779.6A Active CN109076165B (zh) | 2016-05-02 | 2017-04-28 | 头戴式显示器内容捕获和共享 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9823477B1 (zh) |
EP (2) | EP3923124A3 (zh) |
JP (3) | JP6724164B2 (zh) |
CN (2) | CN113281905A (zh) |
WO (1) | WO2017190635A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10454579B1 (en) | 2016-05-11 | 2019-10-22 | Zephyr Photonics Inc. | Active optical cable for helmet mounted displays |
US10598871B2 (en) * | 2016-05-11 | 2020-03-24 | Inneos LLC | Active optical cable for wearable device display |
CN106933364B (zh) * | 2017-03-15 | 2019-09-27 | 京东方科技集团股份有限公司 | 字符输入方法、字符输入设备以及可穿戴设备 |
US11494986B2 (en) * | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
KR102145852B1 (ko) * | 2018-12-14 | 2020-08-19 | (주)이머시브캐스트 | 카메라 기반의 혼합현실 글래스 장치 및 혼합현실 디스플레이 방법 |
US20200285056A1 (en) * | 2019-03-05 | 2020-09-10 | Facebook Technologies, Llc | Apparatus, systems, and methods for wearable head-mounted displays |
US11163333B2 (en) * | 2019-03-29 | 2021-11-02 | Htc Corporation | Head-mounted display |
US11800231B2 (en) * | 2019-09-19 | 2023-10-24 | Apple Inc. | Head-mounted display |
US11297224B2 (en) * | 2019-09-30 | 2022-04-05 | Snap Inc. | Automated eyewear device sharing system |
CN112416125A (zh) * | 2020-11-17 | 2021-02-26 | 青岛小鸟看看科技有限公司 | Vr头戴式一体机 |
CN116320366A (zh) * | 2023-05-18 | 2023-06-23 | 中数元宇数字科技(上海)有限公司 | 视频流数据推送方法、装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070046776A1 (en) * | 2005-08-29 | 2007-03-01 | Hiroichi Yamaguchi | Stereoscopic display device and control method therefor |
CN103180893A (zh) * | 2011-08-23 | 2013-06-26 | 索尼公司 | 用于提供三维用户界面的方法和系统 |
CN104396237A (zh) * | 2012-06-29 | 2015-03-04 | 索尼电脑娱乐公司 | 视频输出装置、三维视频观察设备、视频呈现系统和视频输出方法 |
CN105359063A (zh) * | 2013-06-09 | 2016-02-24 | 索尼电脑娱乐公司 | 利用追踪的头戴式显示器 |
US20160088287A1 (en) * | 2014-09-22 | 2016-03-24 | Samsung Electronics Company, Ltd. | Image stitching for three-dimensional video |
US20160093108A1 (en) * | 2014-09-30 | 2016-03-31 | Sony Computer Entertainment Inc. | Synchronizing Multiple Head-Mounted Displays to a Unified Space and Correlating Movement of Objects in the Unified Space |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005172851A (ja) * | 2003-12-05 | 2005-06-30 | Sony Corp | 画像表示装置 |
US11428937B2 (en) * | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20100259619A1 (en) | 2009-04-10 | 2010-10-14 | Nicholson Timothy J | Hmd with elevated camera |
JP5560600B2 (ja) * | 2009-07-09 | 2014-07-30 | 株式会社島津製作所 | ヘッドモーショントラッカ装置 |
JP2011197736A (ja) * | 2010-03-17 | 2011-10-06 | Mitsubishi Electric Corp | 視界支援装置 |
US20150105035A1 (en) * | 2012-04-13 | 2015-04-16 | Eduardo Soares de Oliveira | Web-Connected Safety Helmet |
CN103020983B (zh) | 2012-09-12 | 2017-04-05 | 深圳先进技术研究院 | 一种用于目标跟踪的人机交互装置及方法 |
US9833031B2 (en) * | 2013-05-23 | 2017-12-05 | Accenture Global Services Limited | Safety accessory with situational awareness and data retention |
CN106304842A (zh) * | 2013-10-03 | 2017-01-04 | 舒朗科技公司 | 用于定位和地图创建的增强现实系统和方法 |
RU2683262C2 (ru) * | 2014-02-17 | 2019-03-27 | Сони Корпорейшн | Устройство обработки информации, способ обработки информации и программа |
US9551873B2 (en) * | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
US11205305B2 (en) * | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
CN104473717A (zh) | 2014-12-04 | 2015-04-01 | 上海交通大学 | 针对全盲人群的可穿戴式引导设备 |
US9851564B2 (en) * | 2015-01-20 | 2017-12-26 | Microsoft Technology Licensing, Llc | Head-mounted display device with protective visor |
KR102483838B1 (ko) * | 2015-04-19 | 2023-01-02 | 포토내이션 리미티드 | Vr/ar 응용에서 심도 증강을 위한 다중-기선 카메라 어레이 시스템 아키텍처 |
US10007352B2 (en) * | 2015-08-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Holographic display system with undo functionality |
CN105404005A (zh) | 2015-12-10 | 2016-03-16 | 合肥虔视光电科技有限公司 | 用于增强现实的头戴显示器 |
-
2016
- 2016-05-02 US US15/144,112 patent/US9823477B1/en active Active
-
2017
- 2017-04-28 EP EP21189935.6A patent/EP3923124A3/en not_active Withdrawn
- 2017-04-28 CN CN202110158076.7A patent/CN113281905A/zh active Pending
- 2017-04-28 JP JP2018557391A patent/JP6724164B2/ja active Active
- 2017-04-28 CN CN201780026779.6A patent/CN109076165B/zh active Active
- 2017-04-28 WO PCT/CN2017/082541 patent/WO2017190635A1/en active Application Filing
- 2017-04-28 EP EP17792461.0A patent/EP3443738B1/en active Active
- 2017-10-31 US US15/799,364 patent/US10473941B2/en active Active
-
2019
- 2019-10-30 US US16/668,985 patent/US20200166761A1/en not_active Abandoned
-
2020
- 2020-06-23 JP JP2020107844A patent/JP6966603B2/ja active Active
-
2021
- 2021-10-21 JP JP2021172371A patent/JP2022009355A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070046776A1 (en) * | 2005-08-29 | 2007-03-01 | Hiroichi Yamaguchi | Stereoscopic display device and control method therefor |
CN103180893A (zh) * | 2011-08-23 | 2013-06-26 | 索尼公司 | 用于提供三维用户界面的方法和系统 |
CN104396237A (zh) * | 2012-06-29 | 2015-03-04 | 索尼电脑娱乐公司 | 视频输出装置、三维视频观察设备、视频呈现系统和视频输出方法 |
CN105359063A (zh) * | 2013-06-09 | 2016-02-24 | 索尼电脑娱乐公司 | 利用追踪的头戴式显示器 |
US20160088287A1 (en) * | 2014-09-22 | 2016-03-24 | Samsung Electronics Company, Ltd. | Image stitching for three-dimensional video |
US20160093108A1 (en) * | 2014-09-30 | 2016-03-31 | Sony Computer Entertainment Inc. | Synchronizing Multiple Head-Mounted Displays to a Unified Space and Correlating Movement of Objects in the Unified Space |
Also Published As
Publication number | Publication date |
---|---|
JP6724164B2 (ja) | 2020-07-15 |
EP3443738A4 (en) | 2019-07-17 |
EP3443738A1 (en) | 2019-02-20 |
US20180052329A1 (en) | 2018-02-22 |
US10473941B2 (en) | 2019-11-12 |
EP3923124A3 (en) | 2022-03-16 |
US20200166761A1 (en) | 2020-05-28 |
EP3443738B1 (en) | 2021-08-25 |
JP2019519968A (ja) | 2019-07-11 |
JP2020171031A (ja) | 2020-10-15 |
CN109076165A (zh) | 2018-12-21 |
US20170315365A1 (en) | 2017-11-02 |
CN109076165B (zh) | 2021-02-12 |
WO2017190635A1 (en) | 2017-11-09 |
JP6966603B2 (ja) | 2021-11-17 |
JP2022009355A (ja) | 2022-01-14 |
US9823477B1 (en) | 2017-11-21 |
EP3923124A2 (en) | 2021-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109076165B (zh) | 头戴式显示器内容捕获和共享 | |
US9423619B2 (en) | Head mounted display and method of outputting a content using the same in which the same identical content is displayed | |
KR102182161B1 (ko) | Hmd 및 그 제어 방법 | |
KR102171450B1 (ko) | 포터블 디바이스 및 그 제어 방법 | |
JP6273347B2 (ja) | 頭部装着式ディスプレイに画像を表示するための方法および装置 | |
KR102120105B1 (ko) | 헤드 마운티드 디스플레이 및 그 제어 방법 | |
KR101675567B1 (ko) | 파노라마 촬영장치, 파노라마 촬영 시스템, 이를 이용한 파노라마 영상 생성 방법, 컴퓨터 판독가능 기록매체 및 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램 | |
KR20180094340A (ko) | 이동단말기 및 그 제어 방법 | |
CN104320586A (zh) | 拍照方法、系统及终端 | |
US20150244756A1 (en) | Method, Apparatus and System for Determining Terminal That is to Share Real-Time Video | |
US20210034319A1 (en) | Multi-device editing of 3d models | |
CN104869315A (zh) | 一种拍照控制方法及终端 | |
KR20170073273A (ko) | 헤드 마운트 디스플레이 장치 | |
WO2023129295A1 (en) | Hyper-connected and synchronized ar glasses | |
CN109005210B (zh) | 信息交互的方法和装置 | |
KR102262019B1 (ko) | 네트워크 속도 반응형 확장현실(xr) 커뮤니케이션 방법 및 시스템 | |
WO2022181378A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20180122797A (ko) | 가상 현실 컨텐츠를 제공하기 위한 헤드 마운티드 디스플레이를 포함하는 시스템 및 제어 방법 | |
TWI592894B (zh) | 傳送排程人形玩偶圖像和信息的傳送端裝置、伺服器、系統和方法 | |
CN117193607A (zh) | 虚拟对象处理方法、装置、设备和存储介质 | |
JP2021043629A (ja) | 端末制御プログラム、端末装置、端末制御方法および情報通信方法 | |
KR20130012655A (ko) | 3d 영상 촬영용 거치대 및 3d 영상의 촬영 제어 방법 | |
TWM532130U (zh) | 傳送排程人形玩偶圖像和信息的傳送端裝置、伺服器和系統 | |
CN105791442A (zh) | 传送排程人形玩偶图像和信息的传送端装置、服务器、系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210820 |
|
WD01 | Invention patent application deemed withdrawn after publication |