CN111741285A - 实时3d场景实现方法及设备 - Google Patents
实时3d场景实现方法及设备 Download PDFInfo
- Publication number
- CN111741285A CN111741285A CN202010514051.1A CN202010514051A CN111741285A CN 111741285 A CN111741285 A CN 111741285A CN 202010514051 A CN202010514051 A CN 202010514051A CN 111741285 A CN111741285 A CN 111741285A
- Authority
- CN
- China
- Prior art keywords
- scene
- image
- real
- user
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Abstract
本发明的目的是提供一种实时3D场景实现方法及设备,本发明可以让用户坐在家里看世界,用户可以通过TOF镜头实时体现自己表情和肢体语言,可以一人或邀请多人同时进入某场景,进行观光旅游,观看足球比赛等。最终构建场景可以通过VR眼睛或者在未来实现3D家庭场景构建,将场景呈现在用户面前,同时手机等设备端的TOF镜头可实时感知肢体动作,使用户有身临其境感觉。本发明可以呈现各类真实3D场景,如旅游景区,足球比赛等,供用户选择,例如,可以和家人一起进入旅游景区观美景,和朋友一起进入足球赛场感受比赛激情。
Description
技术领域
本发明涉及一种实时3D场景实现方法及设备。
背景技术
由于现代社会生活节奏太快,用户没有足够的时间外出旅游休闲和社交。
发明内容
本发明的一个目的是提供一种实时3D场景实现方法及设备。
根据本发明的一个方面,提供了一种基于服务器端的实时3D场景实现方法,其中,该方法包括:
获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
将所述3D立体图像与真实场景图像组合成虚拟现实场景;
向一个或多个用户的设备端发送所述虚拟现实场景。
进一步的,上述方法中,所述真实场景图像包括实时直播的真实场景图像和录制的真实场景图像。
进一步的,上述方法中,将所述3D立体图像与真实场景图像组合成虚拟现实场景,包括:
从一个或多个用户的设备端接收选择显示的用户;
将选择显示的用户的3D立体图像与真实场景图像组合成虚拟现实场景。
根据本发明的另一面,还提供一种基于用户的设备端的实时3D场景实现方法,其中,该方法包括:
通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
进一步的,上述方法中,所述真实场景图像包括实时直播的真实场景图像和录制的真实场景图像。
进一步的,上述方法中,从所述服务器获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示,包括:
向所述服务器端发送选择显示的用户;
从所述服务器获取由所述选择显示的用户的3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
根据本发明的另一面,还提供一种实时3D场景实现的服务器,其中,该服务器包括:
第一一装置,用于获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
第一二装置,用于将所述3D立体图像与真实场景图像组合成虚拟现实场景;
第一三装置,用于向一个或多个用户的设备端发送所述虚拟现实场景。
根据本发明的另一面,还提供一种实时3D场景实现的用户的设备端,其中,该设备端包括:
第二一装置,用于通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
第二二装置,用于从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
将所述3D立体图像与真实场景图像组合成虚拟现实场景;
向一个或多个用户的设备端发送所述虚拟现实场景。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
与现有技术相比,本发明可以让用户坐在家里看世界,用户可以通过TOF镜头实时体现自己表情和肢体语言,可以一人或邀请多人同时进入某场景,进行观光旅游,观看足球比赛等。最终构建场景可以通过VR眼睛或者在未来实现3D家庭场景构建,将场景呈现在用户面前,同时手机等设备端的TOF镜头可实时感知肢体动作,使用户有身临其境感觉。本发明可以呈现各类真实3D场景(如旅游景区,足球比赛等)供用户选择,例如,可以和家人一起进入旅游景区观美景,和朋友一起进入足球赛场感受比赛激情。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本发明一个方面的一种实时3D场景实现方法及设备的原理图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
如图1所示,本发明提供一种基于服务器端的实时3D场景实现方法,所述方法包括:
步骤S11,获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
步骤S12,将所述3D立体图像与真实场景图像组合成虚拟现实场景;
步骤S13,向一个或多个用户的设备端发送所述虚拟现实场景。
在此,TOF镜头是原深感镜头,它专门负责3D识别。与3D结构光不同,TOF技术通过调制光发射器发的高频光线,碰到物体以后会反射回来,接收器会捕捉来回的时间,通过计算能够得到物体的距离,景深不同的地方光线传播时间不同,借时间差来形成高精度的3D立体图,通过比对完成识别目的。
本发明可以让用户坐在家里看世界,用户可以通过TOF镜头实时体现自己表情和肢体语言,可以一人或邀请多人同时进入某场景,进行观光旅游,观看足球比赛等。最终构建场景可以通过VR眼睛或者在未来实现3D家庭场景构建,将场景呈现在用户面前,同时手机等设备端的TOF镜头可实时感知肢体动作,使用户有身临其境感觉。本发明可以呈现各类真实3D场景(如旅游景区,足球比赛等)供用户选择,例如,可以和家人一起进入旅游景区观美景,和朋友一起进入足球赛场感受比赛激情。
本发明的基于服务器端的实时3D场景实现方法一实时例中,所述真实场景图像包括实时直播的真实场景图像和录制的真实场景图像。
具体的,录制的真实场景图像例如可以是基于旅游景区/餐厅休闲/体育赛事等场景录制3D真实场景,并上传到该本发明的应用系统中。
本发明的基于服务器端的实时3D场景实现方法一实时例中,步骤S12,将所述3D立体图像与真实场景图像组合成虚拟现实场景,包括:
从一个或多个用户的设备端接收选择显示的用户;
将选择显示的用户的3D立体图像与真实场景图像组合成虚拟现实场景。
在此,通过设备端设置选择显示的用户,可以保证在合成虚拟现实场景中仅包括选择显示的用户的3D立体图像,不包括未选择显示的用户的3D立体图像,保护了未选择显示的用户的隐私。
如图1所示,本发明还提供一种基于用户的设备端的实时3D场景实现方法,所述方法包括:
步骤S21,通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
步骤S22,从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
在此,TOF镜头是原深感镜头,它专门负责3D识别。与3D结构光不同,TOF技术通过调制光发射器发的高频光线,碰到物体以后会反射回来,接收器会捕捉来回的时间,通过计算能够得到物体的距离,景深不同的地方光线传播时间不同,借时间差来形成高精度的3D立体图,通过比对完成识别目的。
本发明可以让用户坐在家里看世界,用户可以通过TOF镜头实时体现自己表情和肢体语言,可以一人或邀请多人同时进入某场景,进行观光旅游,观看足球比赛等。最终构建场景可以通过VR眼睛或者在未来实现3D家庭场景构建,将场景呈现在用户面前,同时手机等设备端的TOF镜头可实时感知肢体动作,使用户有身临其境感觉。本发明可以呈现各类真实3D场景(如旅游景区,足球比赛等)供用户选择,例如,可以和家人一起进入旅游景区观美景,和朋友一起进入足球赛场感受比赛激情。
本发明的基于用户的设备端的实时3D场景实现方法一实时例中,所述真实场景图像包括实时直播的真实场景图像和录制的真实场景图像。
具体的,录制的真实场景图像例如可以是基于旅游景区/餐厅休闲/体育赛事等场景录制3D真实场景,并上传到该本发明的应用系统中。
本发明的基于用户的设备端的实时3D场景实现方法一实时例中,步骤S22,从所述服务器获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示,包括:
向所述服务器端发送选择显示的用户;
从所述服务器获取由所述选择显示的用户的3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
在此,通过设备端设置选择显示的用户,可以保证在合成虚拟现实场景中仅包括选择显示的用户的3D立体图像,不包括未选择显示的用户的3D立体图像,保护了未选择显示的用户的隐私。
根据本发明的另一面,还提供一种实时3D场景实现的服务器,其中,该服务器包括:
第一一装置,用于获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
第一二装置,用于将所述3D立体图像与真实场景图像组合成虚拟现实场景;
第一三装置,用于向一个或多个用户的设备端发送所述虚拟现实场景。
根据本发明的另一面,还提供一种实时3D场景实现的用户的设备端,其中,该设备端包括:
第二一装置,用于通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
第二二装置,用于从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
将所述3D立体图像与真实场景图像组合成虚拟现实场景;
向一个或多个用户的设备端发送所述虚拟现实场景。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
本发明的各设备和存储介质实施例的详细内容,具体可参见各方法实施例的对应部分,在此,不再赘述。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本发明的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本发明的方法和/或技术方案。而调用本发明的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本发明的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本发明的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (10)
1.一种基于服务器端的实时3D场景实现方法,其中,该方法包括:
获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
将所述3D立体图像与真实场景图像组合成虚拟现实场景;
向一个或多个用户的设备端发送所述虚拟现实场景。
2.根据权利要求1所述的方法,其中,所述真实场景图像包括实时直播的真实场景图像和录制的真实场景图像。
3.根据权利要求1所述的方法,其中,将所述3D立体图像与真实场景图像组合成虚拟现实场景,包括:
从一个或多个用户的设备端接收选择显示的用户;
将选择显示的用户的3D立体图像与真实场景图像组合成虚拟现实场景。
4.一种基于用户的设备端的实时3D场景实现方法,其中,该方法包括:
通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
5.根据权利要求4所述的方法,其中,所述真实场景图像包括实时直播的真实场景图像和录制的真实场景图像。
6.根据权利要求4所述的方法,其中,从所述服务器获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示,包括:
向所述服务器端发送选择显示的用户;
从所述服务器获取由所述选择显示的用户的3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
7.一种实时3D场景实现的服务器,其中,该服务器包括:
第一一装置,用于获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
第一二装置,用于将所述3D立体图像与真实场景图像组合成虚拟现实场景;
第一三装置,用于向一个或多个用户的设备端发送所述虚拟现实场景。
8.一种实时3D场景实现的用户的设备端,其中,该设备端包括:
第二一装置,用于通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
第二二装置,用于从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
9.一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取一个或多个用户的设备端发送的用户的肢体动作的3D立体图像,其中,所述3D立体图像由一个或多个用户的设备端的TOF镜头采集;
将所述3D立体图像与真实场景图像组合成虚拟现实场景;
向一个或多个用户的设备端发送所述虚拟现实场景。
10.一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
通过TOF镜头采集的用户的肢体动作的3D立体图像并发送至服务器;
从所述服务器端获取由所述3D立体图像与真实场景图像组合成虚拟现实场景,并将所述虚拟现实场景进行显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514051.1A CN111741285A (zh) | 2020-06-08 | 2020-06-08 | 实时3d场景实现方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514051.1A CN111741285A (zh) | 2020-06-08 | 2020-06-08 | 实时3d场景实现方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111741285A true CN111741285A (zh) | 2020-10-02 |
Family
ID=72648532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010514051.1A Pending CN111741285A (zh) | 2020-06-08 | 2020-06-08 | 实时3d场景实现方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111741285A (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040169724A1 (en) * | 2002-12-09 | 2004-09-02 | Ekpar Frank Edughom | Method and apparatus for creating interactive virtual tours |
US7084876B1 (en) * | 2002-12-07 | 2006-08-01 | Digenetics, Inc. | Method for presenting a virtual reality environment for an interaction |
CN105915849A (zh) * | 2016-05-09 | 2016-08-31 | 惠州Tcl移动通信有限公司 | 一种虚拟现实体育赛事播放方法及系统 |
WO2016178640A1 (en) * | 2015-05-07 | 2016-11-10 | Anadolu Universitesi Rektorlugu | Virtual reality device for tactical soccer training |
CN106251752A (zh) * | 2016-10-25 | 2016-12-21 | 深圳市科创数字显示技术有限公司 | Ar和vr相结合的医学培训系统 |
CN106778628A (zh) * | 2016-12-21 | 2017-05-31 | 张维忠 | 一种基于tof深度相机的面部表情捕捉方法 |
CN107895330A (zh) * | 2017-11-28 | 2018-04-10 | 特斯联(北京)科技有限公司 | 一种面向智慧旅游实现场景构建的游客服务平台 |
CN108074278A (zh) * | 2016-11-17 | 2018-05-25 | 百度在线网络技术(北京)有限公司 | 视频呈现方法、装置和设备 |
CN108881784A (zh) * | 2017-05-12 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 虚拟场景实现方法、装置、终端及服务器 |
CN108966402A (zh) * | 2017-05-19 | 2018-12-07 | 浙江舜宇智能光学技术有限公司 | Tof摄像模组和tof电路及其散热方法和制造方法以及应用 |
CN110650081A (zh) * | 2019-08-22 | 2020-01-03 | 南京洁源电力科技发展有限公司 | 一种虚拟现实即时通讯方法 |
-
2020
- 2020-06-08 CN CN202010514051.1A patent/CN111741285A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7084876B1 (en) * | 2002-12-07 | 2006-08-01 | Digenetics, Inc. | Method for presenting a virtual reality environment for an interaction |
US20040169724A1 (en) * | 2002-12-09 | 2004-09-02 | Ekpar Frank Edughom | Method and apparatus for creating interactive virtual tours |
WO2016178640A1 (en) * | 2015-05-07 | 2016-11-10 | Anadolu Universitesi Rektorlugu | Virtual reality device for tactical soccer training |
CN105915849A (zh) * | 2016-05-09 | 2016-08-31 | 惠州Tcl移动通信有限公司 | 一种虚拟现实体育赛事播放方法及系统 |
CN106251752A (zh) * | 2016-10-25 | 2016-12-21 | 深圳市科创数字显示技术有限公司 | Ar和vr相结合的医学培训系统 |
CN108074278A (zh) * | 2016-11-17 | 2018-05-25 | 百度在线网络技术(北京)有限公司 | 视频呈现方法、装置和设备 |
CN106778628A (zh) * | 2016-12-21 | 2017-05-31 | 张维忠 | 一种基于tof深度相机的面部表情捕捉方法 |
CN108881784A (zh) * | 2017-05-12 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 虚拟场景实现方法、装置、终端及服务器 |
CN108966402A (zh) * | 2017-05-19 | 2018-12-07 | 浙江舜宇智能光学技术有限公司 | Tof摄像模组和tof电路及其散热方法和制造方法以及应用 |
CN107895330A (zh) * | 2017-11-28 | 2018-04-10 | 特斯联(北京)科技有限公司 | 一种面向智慧旅游实现场景构建的游客服务平台 |
CN110650081A (zh) * | 2019-08-22 | 2020-01-03 | 南京洁源电力科技发展有限公司 | 一种虚拟现实即时通讯方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10003769B2 (en) | Video telephony system, image display apparatus, driving method of image display apparatus, method for generating realistic image, and non-transitory computer readable recording medium | |
JP2020071851A (ja) | アバタによる生放送方法及び装置 | |
CN108600632B (zh) | 拍照提示方法、智能眼镜及计算机可读存储介质 | |
CN105635712A (zh) | 基于增强现实的视频实时录制方法及录制设备 | |
CN105430512A (zh) | 一种在视频图像上显示信息的方法和装置 | |
US11037321B2 (en) | Determining size of virtual object | |
CN102067615A (zh) | 图像产生方法和设备以及图像处理方法和设备 | |
CN109379639B (zh) | 视频内容对象的推送方法及装置、电子设备 | |
US11657833B2 (en) | Classifying audio scene using synthetic image features | |
CN104170368B (zh) | 关于图像内容的方法和设备 | |
CN107084740B (zh) | 一种导航方法和装置 | |
KR20220148915A (ko) | 오디오 처리 방법, 장치, 판독 가능 매체 및 전자기기 | |
CN106687944A (zh) | 使用语言生成进行的基于活动的文本重写 | |
JP2023524773A (ja) | 画像データの符号化方法及び装置、表示方法及び装置、並びに電子機器 | |
CN114531553B (zh) | 生成特效视频的方法、装置、电子设备及存储介质 | |
CN106774852B (zh) | 一种基于虚拟现实的消息处理方法及装置 | |
CN111246196A (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
US10936878B2 (en) | Method and device for determining inter-cut time range in media item | |
CN111741285A (zh) | 实时3d场景实现方法及设备 | |
CN111951385A (zh) | 企业展示方法及装置 | |
JP6972308B2 (ja) | ユーザ端末をグループとして連結し、グループと関連するコンテンツを含むサービスを提供する、方法および装置 | |
CN113420242A (zh) | 导购方法、资源分发方法、内容展示方法及设备 | |
CN110166825B (zh) | 视频数据处理方法及装置、视频播放方法及装置 | |
CN108897801B (zh) | 用户行为确定方法及装置 | |
CN113709584A (zh) | 视频划分方法、装置、服务器、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201002 |
|
RJ01 | Rejection of invention patent application after publication |