CN114745535A - 一种直播显示方法、装置、存储介质及计算机设备 - Google Patents
一种直播显示方法、装置、存储介质及计算机设备 Download PDFInfo
- Publication number
- CN114745535A CN114745535A CN202210399921.4A CN202210399921A CN114745535A CN 114745535 A CN114745535 A CN 114745535A CN 202210399921 A CN202210399921 A CN 202210399921A CN 114745535 A CN114745535 A CN 114745535A
- Authority
- CN
- China
- Prior art keywords
- virtual
- scene
- user
- real
- virtual scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000008859 change Effects 0.000 claims abstract description 56
- 230000001360 synchronised effect Effects 0.000 claims abstract description 21
- 230000000694 effects Effects 0.000 claims description 61
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000001960 triggered effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000011324 bead Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43076—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请公开了一种直播显示方法、装置、计算机可读存储介质及计算机设备。方法包括:确定指定现实场景中现实位置与虚拟场景中虚拟位置的对应关系;基于终端设备同步的现实位置以及对应关系,确定指定用户在虚拟场景中对应的当前虚拟位置,控制在客户端设备中直播画面内的虚拟场景的当前虚拟位置上显示用户画面;当检测到现实位置发生变动时,基于对应关系确定变动后现实位置在虚拟场景中对应的变动后虚拟位置,控制在客户端设备中直播画面内的用户画面自当前虚拟位置向变动后虚拟位置进行移动。通过同步虚拟场景中用户画面在虚拟场景中的虚拟位置的变化,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
Description
技术领域
本申请涉及计算机领域,具体涉及一种直播显示方法、装置、计算机可读存储介质及计算机设备。
背景技术
近年来,虚拟AR技术已经趋向成熟,真人与虚拟场景合成的方式已经普及各节目或电竞赛事,真人与虚拟场景的互动方式主要以展示牌、特效、氛围变化等方式,呈现一种互动效果。
在基于AR的直播过程中,被拍摄的用户需要在现实场景中进行录制,从而在展示出的直播画面中的虚拟场景上显示被摄用户。
在对现有技术的研究和实践过程中,本申请的发明人发现,现有技术中虚拟场景与用户之间并未形成交互,直播存在局限性。
发明内容
本申请实施例提供一种直播显示方法及装置,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
为解决上述技术问题,本申请实施例提供以下技术方案:
一种直播显示方法,应用于与终端设备以及摄像设备建立连接的计算机设备,所述终端设备被分配至处于指定现实场景中的指定用户,用于实时获取并向所述计算机设备同步所述指定用户在所述指定现实场景的现实位置,所述摄像设备用于拍摄所述指定现实场景中所述指定用户的用户画面,包括:
根据所述指定现实场景构建虚拟场景;
基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;
当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
一种直播显示装置,应用于与终端设备以及摄像设备建立连接的计算机设备,所述终端设备被分配至处于指定现实场景中的指定用户,用于实时获取并向所述计算机设备同步所述指定用户在所述指定现实场景的现实位置,所述摄像设备用于拍摄所述指定现实场景中所述指定用户的用户画面,包括:
构建模块,用于根据所述指定现实场景构建虚拟场景;
确定模块,用于基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;
显示模块,用于当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
在一些实施例中,所述显示模块,包括:
第一确定子模块,用于基于改变前后的虚拟位置,确定所述用户画面在所述虚拟场景中的目标移动状态类型;
第二确定子模块,用于确定所述目标移动状态类型对应的目标触发效果;
第一控制子模块,用于控制所述用户画面上显示所述目标触发效果。
在一些实施例中,所述第一确定子模块,包括:
获取单元,用于获取所述用户画面从改变前虚拟位置移动至改变后虚拟位置的移动时长,以及移动距离;
计算单元,用于计算所述移动距离与所述移动时长的比值,得到移动速度;
第一确定单元,用于从多个候选移动速度区间中确定出所述移动速度所处的目标移动速度区间,并将所述目标移动速度区间对应的移动状态类型确定为目标移动状态类型。
在一些实施例中,在所述用户画面的指定位置处设置有槽点,所述控制子模块,包括:
显示单元,用于在所述用户画面的槽点处显示所述目标触发效果。
在一些实施例中,所述虚拟场景中设置有虚拟资源,所述显示模块,包括:
第三确定子模块,用于确定所述用户画面自改变前虚拟位置向所述改变后虚拟位置进行移动时所经过的第一目标虚拟资源,并获取所述用户画面在移动时的移动参数;
第四确定子模块,用于基于所述移动参数确定物理影响因素;
第五确定子模块,用于基于所述物理影响因素确定用户画面在移动时移动效果;
第二控制子模块,用于并控制在客户端设备中直播画面内的所述第一目标虚拟资源随所述用户画面的移动显示移动效果。
在一些实施例中,所述显示模块,还包括:
第六确定子模块,用于当所述用户画面移动至所述改变后虚拟位置时,从所述虚拟场景的虚拟资源中确定出与所述改变后虚拟位置处于预设距离范围内的第二目标虚拟资源;
第三控制子模块,用于控制在客户端设备中直播画面内的所述第二目标虚拟资源显示预设资源变化效果。
在一些实施例中,所述构建模块,包括:
生成子模块,用于生成初始虚拟场景;
获取子模块,用于获取所述指定现实场景的第一底面,以及所述初始虚拟场景的第二底面,所述第一底面上的每一底面位置均对应一现实位置;
判断子模块,用于判断所述第一底面的尺寸是否与所述第二底面的尺寸相同;
伸缩子模块,用于若所述第一底面的尺寸与所述第二底面的尺寸不相同,则伸缩所述初始虚拟场景,直至伸缩后的第二底面的尺寸与第一底面的尺寸相同,得到虚拟场景;
第七确定子模块,用于基于所述第二底面上的每一底面位置以及第一底面上的每一底面位置与现实位置的对应关系,确定指定现实场景中每一现实位置与虚拟场景中虚拟位置的对应关系。
在一些实施例中,所述显示模块,包括:
第八确定子模块,用于确定伸缩所述初始虚拟场景的伸缩比例,按照所述伸缩比例伸缩所述用户画面,得到伸缩后的用户画面;
显示子模块,用于在所述虚拟场景的所述虚拟位置上显示所述伸缩后的用户画面。
一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行上述直播显示方法中的步骤。
一种计算机设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如上所述直播显示方法中的步骤。
本申请实施例通过根据所述指定现实场景构建虚拟场景;基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。以此,通过检测指定用户在指定现实场景中现实位置的变化,同步虚拟场景中用户画面在虚拟场景中的虚拟位置的变化,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a为本申请实施例提供的直播显示方法的系统示意图。
图1b为本申请实施例提供的直播显示方法的第一种流程示意图。
图1c为本申请实施例提供的指定现实场景的示意图。
图1d为本申请实施例提供的客户端设备中直播画面内的用户画面在移动状态的第一种示意图。
图1e为本申请实施例提供的客户端设备中直播画面内的用户画面在移动状态的第二种示意图。
图2为本申请实施例提供的直播显示装置的结构示意图。
图3为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一直播显示方法、装置及计算机可读存储介质。
请参阅图1a,图1a为本申请实施例所提供的直播显示方法的系统示意图,该系统可以包括至少一个终端设备1000,至少一个摄像设备2000,至少一个与终端设备1000以及摄像设备2000建立连接的计算机设备3000,其中,终端设备1000与摄像设备2000可通过网络4000与计算机设备3000建立连接。也可通过直连的方式与计算机设备3000建立连接,此处不做限定。观看用户通过客户端设备5000通过网络4000与计算机设备3000建立连接,从计算机设备3000实时获取直播画面进行观看。其中,网络4000可以是无线网络或者有线网络,比如无线网络为无线局域网(WLAN)、局域网(LAN)、蜂窝网络、2G网络、3G网络、4G网络、5G网络等。另外,不同的客户端设备5000之间也可以使用自身的蓝牙网络或者热点网络连接到计算机设备3000等。客户端设备5000可以为手机、电脑或个人数字助理等设备。另外,该系统可以包括数据库6000,数据库6000可用于存储虚拟场景,以及直播录像等信息。
其中,终端设备1000被分配至处于指定现实场景中的指定用户,且终端设备1000具备定位功能,用于实时获取并向所述计算机设备3000同步指定用户在指定现实场景的现实位置。摄像设备2000用于拍摄所述指定现实场景中指定用户的用户画面。指定用户也即出现在客户端设备5000上直播画面中的用户。
本申请实施例提供了一种直播显示方法,该方法可以由计算机设备执行,计算机设备包括服务器、个人计算机(Personal Computer,PC)以及个人数字助理(PersonalDigital Assistant,PDA)等。如图1a所示,该计算机设备3000根据所述指定现实场景构建虚拟场景;基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。基于此,通过检测指定用户在指定现实场景中现实位置的变化,同步虚拟场景中用户画面在虚拟场景中的虚拟位置的变化,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
需要说明的是,图1a所示的直播显示系统的场景示意图仅仅是一个示例,本申请实施例描述的直播显示系统以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着直播显示系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
在本实施例中,将从直播显示装置的角度进行描述,该直播显示装置具体可以集成在具备储存单元并安装有微处理器而具有运算能力的计算机设备中。
请参阅图1b,图1b为本申请实施例提供的直播显示方法的第一种流程示意图。该直播显示方法包括:
在步骤101中,根据所述指定现实场景构建虚拟场景。
其中,指定现实场景为现实中直播的拍摄场景,虚拟场景为开发人员事先构建的虚拟场景,用于直播时在观众所持的客户端设备中直播画面内进行显示的虚拟场景。指定现实场景的场景大小与虚拟场景的场景大小是否相同不限定,故需要对指定现实场景与虚拟场景进行定位同步,即确定出指定现实场景中的每一现实位置在虚拟场景中的对应位置,即指定现实场景中每一现实位置与虚拟场景中虚拟位置的对应关系。
具体的,在对指定现实场景与虚拟场景进行定位同步时,还需要控制虚拟场景中的虚拟摄像头拍摄画面,并将拍摄到的画面传给直播服务器,从而通过直播服务器转发给观众直播客户端。其中,虚拟摄像头需要和摄像设备绑定,保持拍摄角度的统一。
在一些实施方式中,所述根据所述指定现实场景构建虚拟场景的步骤,包括:
(1)生成初始虚拟场景;
(2)获取所述指定现实场景的第一底面,以及所述初始虚拟场景的第二底面,所述第一底面上的每一底面位置均对应一现实位置;
(3)判断所述第一底面的尺寸是否与所述第二底面的尺寸相同;
(4)若所述第一底面的尺寸与所述第二底面的尺寸不相同,则伸缩所述初始虚拟场景,直至伸缩后的第二底面的尺寸与第一底面的尺寸相同,得到虚拟场景;
(5)基于所述第二底面上的每一底面位置以及第一底面上的每一底面位置与现实位置的对应关系,确定指定现实场景中每一现实位置与虚拟场景中虚拟位置的对应关系。
其中,如图1c所示,图1c为本申请实施例提供的指定现实场景的示意图。其中,指定现实场景可以为以绿幕为背景所搭建出的现实场景,第一底面10为指定现实场景所构建的几何体中的底面,也即直播中用于支撑指定用户的底面。由图可知,第一底面10为由X轴以及Z轴所构建的平面,故第一底面10上的每一底面位置均可由(Xm,Zn)的方式进行表达。第二底面为虚拟场景所构建的几何体中的底面。
具体的,为了实现指定现实场景与虚拟场景的定位同步,需要确定第一底面的尺寸是否与生成出的初始虚拟场景的第二底面的尺寸相同,若不相同,则伸展或缩小第二底面,直至伸缩后的第二底面的尺寸与第一底面的尺寸相同。伸缩第二底面的目的在于:控制伸缩后的第二底面的每一底面位置均与第一底面的每一底面位置对应。并且由于每一底面位置均对应一现实位置,故第二底面的底面位置也对应一显示位置。从而确定出指定现实场景中每一现实位置与虚拟场景中虚拟位置的对应关系。
例如,第一底面中底面位置为(X1,Z1),对应的现实位置为A位置,则伸缩后的第二底面中底面位置为(X1,Z1)对应的现实位置即为A位置。
在步骤102中,基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面。
其中,由于终端设备被分配至指定用户,且用于实时获取并向所述计算机设备同步所述指定用户在所述指定现实场景的现实位置。故指定用户在指定现实场景中进行移动时,终端设备会将指定用户的实时现实位置同步给计算机设备。计算机设备在获取到实时现实位置时,可根据对应关系确定指定用户在所述指定现实场景中的当前现实位置在虚拟场景中对应的当前虚拟位置,从而控制在虚拟场景的当前虚拟位置上显示所述用户画面。
例如,指定用户的当前现实位置为A位置,对应的当前虚拟位置为(X1,Z1),也即第二底面上坐标为(X1,Z1)的位置。则在客户端设备中直播画面内的虚拟场景的当前虚拟位置上显示通过摄像设备拍摄到的指定用户的用户画面。
在一些实施方式中,所述在所述虚拟场景的所述虚拟位置上显示所述用户画面的步骤,包括:
(1)确定伸缩所述初始虚拟场景的伸缩比例,按照所述伸缩比例伸缩所述用户画面,得到伸缩后的用户画面;
(2)在所述虚拟场景的所述虚拟位置上显示所述伸缩后的用户画面。
其中,若第二底面经过伸缩,则可按照伸缩比例伸缩用户画面,并控制在客户端设备中直播画面内的虚拟场景的当前虚拟位置上显示所述伸缩后的用户画面。使得用户画面在虚拟场景中的比例协调。
在步骤103中,当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
其中,当检测到由终端设备同步的现实位置发生变动时,可基于对应关系确定改变后虚拟位置,并基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
例如,指定用户的当前现实位置为A位置,对应的当前虚拟位置为(X1,Z1),变动后现实位置为B位置,对应的变动后虚拟位置为(X2,Z2),则控制在客户端设备中直播画面内的所述用户画面自(X1,Z1)移动至(X2,Z2)。从而形成用户画面随指定用户在指定显示场景内的移动在虚拟场景中进行同步移动的效果。
在一些实施方式中,所述基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果的步骤,包括:
(1)基于改变前后的虚拟位置,确定所述用户画面在所述虚拟场景中的目标移动状态类型;
(2)确定所述目标移动状态类型对应的目标触发效果;
(3)控制所述用户画面上显示所述目标触发效果。
其中,为了展现AR直播中真人与虚拟场景的互动效果,可对指定用户在指定现实场景中的移动状态进行分类,并针对于不同类型的移动状态在直播画面内的用户画面上显示不同的触发效果。
例如,将移动状态分为:走以及跑三种类型。当移动状态为走时,可在用户画面上显示汗珠等触发效果;当移动状态为跑时,可在用户画面上显示画图为火的触发效果等。请参阅图1d,图1d为本申请实施例提供的客户端设备中直播画面内的用户画面在移动状态的第一种示意图。例如移动状态类型为跑时在用户画面上显示火焰的触发效果。
在一些实施方式中,所述基于改变前后的虚拟位置,确定所述用户画面在所述虚拟场景中的目标移动状态类型的步骤,包括:
(1.1)获取所述用户画面从改变前虚拟位置移动至改变后虚拟位置的移动时长,以及移动距离;
(1.2)计算所述移动距离与所述移动时长的比值,得到移动速度;
(1.3)从多个候选移动速度区间中确定出所述移动速度所处的目标移动速度区间,并将所述目标移动速度区间对应的移动状态类型确定为目标移动状态类型。
其中,可事先设定多种候选移动速度区间,不同的候选移动速度区间对应不同的移动状态类型。当检测到指定用户所处的现实位置变动时,可获取所述指定用户从所述当前现实位置移动至所述变动后现实位置的移动时长,以及移动距离。计算移动距离与所述移动时长的比值,得到移动速度。并从多个候选移动速度区间中筛选出移动速度所处的目标移动速度区间,对应的移动状态类型即为目标移动状态类型。
例如,移动时长为3s,移动距离为3m,则移动速度为1m/s,处于0.5m/s~1.5m/s的候选移动速度区间内,则将0.5m/s~1.5m/s的候选移动速度区间确定为目标移动速度区间,对应的移动状态类型为走。
在一些实施方式中,在所述用户画面的指定位置处设置有槽点,所述控制所述用户画面上显示所述目标触发效果的步骤,包括:
在所述用户画面的槽点处显示所述目标触发效果。
其中,用户画面的关键点都会绑定对应的sock(槽点),当所在位置有特效触发时,便会在相应的sock处生成一个特效,槽点可位于用户画面的头部及脚步,因为这样的位置点信息更加准确,效果更能跟随上人物的效果触发。这些效果都在提前预设好的程序,到达某个位置点或者触发到某个效果时便会触发。
在一些实施方式中,所述虚拟场景中设置有虚拟资源,所述基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果的步骤,包括:
(1)确定所述用户画面自改变前虚拟位置向所述改变后虚拟位置进行移动时所经过的第一目标虚拟资源,并获取所述用户画面在移动时的移动参数;
(2)基于所述移动参数确定物理影响因素;
(3)基于所述物理影响因素确定用户画面在移动时移动效果;
(4)并控制在客户端设备中直播画面内的所述第一目标虚拟资源随所述用户画面的移动显示移动效果。
其中,虚拟场景中还包括有虚拟资源依据虚拟引擎中的物理风场、重力、干扰场、动力学,让用户画面在移动时,对移动过程中所经历的或受移动过程所影响的第一目标虚拟资源产生不同的变换效果。具体的变换效果可根据用户画面在移动过程中的移动参数确定的物理影响因素,从而控制在客户端设备中直播画面内的所述第一目标虚拟资源随所述用户画面的移动显示移动效果。
例如,图1e所示,图1e为本申请实施例提供的客户端设备中直播画面内的用户画面在移动状态的第二种示意图。其中,虚拟场景中的虚拟资源为草丛,且移动状态类型为跑,对应的移动参数为跑动参数,影响因素为风向。且草丛的方向朝右上方,在移动过程中,控制移动过程中所经历的第一目标虚拟资源受到风向的影响吹动,例如图1e中将第一目标虚拟资源的草丛显示为受到风向的影响朝向左上方。
在一些实施方式中,所述方法还包括:
(1)当所述用户画面移动至所述改变后虚拟位置时,从所述虚拟场景的虚拟资源中确定出与所述变动后虚拟位置处于预设距离范围内的第二目标虚拟资源;
(2)控制在客户端设备中直播画面内的所述第二目标虚拟资源显示预设资源变化效果。
其中,在类似于大富翁、飞行棋等机制的游戏中,用户画面处于不同的位置时,周围的虚拟资源会产生不同的变化效果。以大富翁游戏为例,虚拟资源为房屋,虚拟场景中在用户画面所处虚拟位置的预设距离范围内的房屋会升级,例如从平房升级为大厦。故当所述用户画面移动至所述变动后虚拟位置时,从所述虚拟场景的虚拟资源中确定出与所述变动后虚拟位置处于预设距离范围内的第二目标虚拟资源;控制在客户端设备中直播画面内的所述第二目标虚拟资源显示预设资源变化效果。
由上述可知,本申请实施例通过根据所述指定现实场景构建虚拟场景;基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。以此,通过检测指定用户在指定现实场景中现实位置的变化,同步虚拟场景中用户画面在虚拟场景中的虚拟位置的变化,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
请参阅图2,图2为本申请实施例提供的直播显示装置的结构示意图,图其中该直播显示装置可以包括构建模块301、确定模块302以及显示模块303等。
构建模块301,用于根据所述指定现实场景构建虚拟场景;
确定模块302,用于基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;
显示模块303,用于当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
在一些实施方式中,所述显示模块303,包括:
第一确定子模块,用于基于改变前后的虚拟位置,确定所述用户画面在所述虚拟场景中的目标移动状态类型;
第二确定子模块,用于确定所述目标移动状态类型对应的目标触发效果;
第一控制子模块,用于控制所述用户画面上显示所述目标触发效果。
在一些实施方式中,所述第一确定子模块,包括:
获取单元,用于获取所述用户画面从改变前虚拟位置移动至改变后虚拟位置的移动时长,以及移动距离;
计算单元,用于计算所述移动距离与所述移动时长的比值,得到移动速度;
第一确定单元,用于从多个候选移动速度区间中确定出所述移动速度所处的目标移动速度区间,并将所述目标移动速度区间对应的移动状态类型确定为目标移动状态类型。
在一些实施方式中,在所述用户画面的指定位置处设置有槽点,所述控制子模块,包括:
显示单元,用于在所述用户画面的槽点处显示所述目标触发效果。
在一些实施方式中,所述虚拟场景中设置有虚拟资源,所述显示模块303,包括:
第三确定子模块,用于确定所述用户画面自改变前虚拟位置向所述改变后虚拟位置进行移动时所经过的第一目标虚拟资源,并获取所述用户画面在移动时的移动参数;
第四确定子模块,用于基于所述移动参数确定物理影响因素;
第五确定子模块,用于基于所述物理影响因素确定用户画面在移动时移动效果;
第二控制子模块,用于并控制在客户端设备中直播画面内的所述第一目标虚拟资源随所述用户画面的移动显示移动效果。
在一些实施方式中,所述显示模块303,还包括:
第六确定子模块,用于当所述用户画面移动至所述改变后虚拟位置时,从所述虚拟场景的虚拟资源中确定出与所述改变后虚拟位置处于预设距离范围内的第二目标虚拟资源;
第三控制子模块,用于控制在客户端设备中直播画面内的所述第二目标虚拟资源显示预设资源变化效果。
在一些实施方式中,所述构建模块301,包括:
生成子模块,用于生成初始虚拟场景;
获取子模块,用于获取所述指定现实场景的第一底面,以及所述初始虚拟场景的第二底面,所述第一底面上的每一底面位置均对应一现实位置;
判断子模块,用于判断所述第一底面的尺寸是否与所述第二底面的尺寸相同;
伸缩子模块,用于若所述第一底面的尺寸与所述第二底面的尺寸不相同,则伸缩所述初始虚拟场景,直至伸缩后的第二底面的尺寸与第一底面的尺寸相同,得到虚拟场景;
第七确定子模块,用于基于所述第二底面上的每一底面位置以及第一底面上的每一底面位置与现实位置的对应关系,确定指定现实场景中每一现实位置与虚拟场景中虚拟位置的对应关系。
在一些实施方式中,所述显示模块303,包括:
第八确定子模块,用于确定伸缩所述初始虚拟场景的伸缩比例,按照所述伸缩比例伸缩所述用户画面,得到伸缩后的用户画面;
显示子模块,用于在所述虚拟场景的所述虚拟位置上显示所述伸缩后的用户画面。
由上述可知,本申请实施例通过构建模块301根据所述指定现实场景构建虚拟场景;确定模块302基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;显示模块303当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。以此,通过检测指定用户在指定现实场景中现实位置的变化,同步虚拟场景中用户画面在虚拟场景中的虚拟位置的变化,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
相应的,本申请实施例还提供一种计算机设备,该计算机设备可以为终端或者服务器,该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,Personal Computer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备。如图3所示,图3为本申请实施例提供的计算机设备的结构示意图。该计算机设备3000包括有一个或者一个以上处理核心的处理器601、有一个或一个以上计算机可读存储介质的存储器602及存储在存储器602上并可在处理器上运行的计算机程序。其中,处理器601与存储器602电性连接。本领域技术人员可以理解,图中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器601是计算机设备3000的控制中心,利用各种接口和线路连接整个计算机设备3000的各个部分,通过运行或加载存储在存储器602内的软件程序和/或模块,以及调用存储在存储器602内的数据,执行计算机设备3000的各种功能和处理数据,从而对计算机设备3000进行整体监控。
在本申请实施例中,计算机设备3000中的处理器601会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器602中,并由处理器601来运行存储在存储器602中的应用程序,从而实现各种功能:
根据所述指定现实场景构建虚拟场景;基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
可选的,如图3所示,计算机设备3000还包括:触控显示屏603、射频电路604、音频电路605、输入单元606以及电源607。其中,处理器601分别与触控显示屏603、射频电路604、音频电路605、输入单元606以及电源607电性连接。本领域技术人员可以理解,图3中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏603可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏603可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及计算机设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器601,并能接收处理器601发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器601以确定触摸事件的类型,随后处理器601根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏603而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏603也可以作为输入单元606的一部分实现输入功能。
在本申请实施例中,通过处理器601执行游戏应用程序在触控显示屏603上生成图形用户界面,图形用户界面上的虚拟场景中包含至少一个功能控件或轮盘控件。该触控显示屏603用于呈现图形用户界面以及接收用户作用于图形用户界面产生的操作指令。
射频电路604可用于收发射频信号,以通过无线通信与网络设备或其他计算机设备建立无线通讯,与网络设备或其他计算机设备之间收发信号。
音频电路605可以用于通过扬声器、传声器提供用户与计算机设备之间的音频接口。音频电路605可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路605接收后转换为音频数据,再将音频数据输出处理器601处理后,经射频电路604以发送给比如另一计算机设备,或者将音频数据输出至存储器602以便进一步处理。音频电路605还可能包括耳塞插孔,以提供外设耳机与计算机设备的通信。
输入单元606可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源607用于给计算机设备3000的各个部件供电。可选的,电源607可以通过电源管理系统与处理器601逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源607还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图3中未示出,计算机设备3000还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
由上可知,本实施例提供的计算机设备,根据所述指定现实场景构建虚拟场景;基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。以此,通过检测指定用户在指定现实场景中现实位置的变化,同步虚拟场景中用户画面在虚拟场景中的虚拟位置的变化,可以实现虚拟场景与用户之间形成交互,降低直播存在的局限性。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种视角调整方法中的步骤。例如,该计算机程序可以执行如下步骤:
根据所述指定现实场景构建虚拟场景;基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种直播显示方法中的步骤,因此,可以实现本申请实施例所提供的任一种直播显示方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种直播显示方法、装置、计算机可读存储介质及计算机设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上该,本说明书内容不应理解为对本申请的限制。
Claims (11)
1.一种直播显示方法,其特征在于,应用于与终端设备以及摄像设备建立连接的计算机设备,所述终端设备被分配至处于指定现实场景中的指定用户,用于实时获取并向所述计算机设备同步所述指定用户在所述指定现实场景的现实位置,所述摄像设备用于拍摄所述指定现实场景中所述指定用户的用户画面,包括:
根据所述指定现实场景构建虚拟场景;
基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;
当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
2.根据权利要求1所述的直播显示方法,其特征在于,所述基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果的步骤,包括:
基于改变前后的虚拟位置,确定所述用户画面在所述虚拟场景中的目标移动状态类型;
确定所述目标移动状态类型对应的目标触发效果;
控制所述用户画面上显示所述目标触发效果。
3.根据权利要求2所述的直播显示方法,其特征在于,所述基于改变前后的虚拟位置,确定所述用户画面在所述虚拟场景中的目标移动状态类型的步骤,包括:
获取所述用户画面从改变前虚拟位置移动至改变后虚拟位置的移动时长,以及移动距离;
计算所述移动距离与所述移动时长的比值,得到移动速度;
从多个候选移动速度区间中确定出所述移动速度所处的目标移动速度区间,并将所述目标移动速度区间对应的移动状态类型确定为目标移动状态类型。
4.根据权利要求2所述的直播显示方法,其特征在于,在所述用户画面的指定位置处设置有槽点,所述控制所述用户画面上显示所述目标触发效果的步骤,包括:
在所述用户画面的槽点处显示所述目标触发效果。
5.根据权利要求1所述的直播显示方法,其特征在于,所述虚拟场景中设置有虚拟资源,所述基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果的步骤,包括:
确定所述用户画面自改变前虚拟位置向所述改变后虚拟位置进行移动时所经过的第一目标虚拟资源,并获取所述用户画面在移动时的移动参数;
基于所述移动参数确定物理影响因素;
基于所述物理影响因素确定用户画面在移动时移动效果;
并控制在客户端设备中直播画面内的所述第一目标虚拟资源随所述用户画面的移动显示移动效果。
6.根据权利要求5所述的直播显示方法,其特征在于,所述方法还包括:
当所述用户画面移动至所述改变后虚拟位置时,从所述虚拟场景的虚拟资源中确定出与所述改变后虚拟位置处于预设距离范围内的第二目标虚拟资源;
控制在客户端设备中直播画面内的所述第二目标虚拟资源显示预设资源变化效果。
7.根据权利要求1所述的直播显示方法,其特征在于,所述根据所述指定现实场景构建虚拟场景的步骤,包括:
生成初始虚拟场景;
获取所述指定现实场景的第一底面,以及所述初始虚拟场景的第二底面,所述第一底面上的每一底面位置均对应一现实位置;
判断所述第一底面的尺寸是否与所述第二底面的尺寸相同;
若所述第一底面的尺寸与所述第二底面的尺寸不相同,则伸缩所述初始虚拟场景,直至伸缩后的第二底面的尺寸与第一底面的尺寸相同,得到虚拟场景;
基于所述第二底面上的每一底面位置以及第一底面上的每一底面位置与现实位置的对应关系,确定指定现实场景中每一现实位置与虚拟场景中虚拟位置的对应关系。
8.根据权利要求7所述的直播显示方法,其特征在于,所述在所述虚拟场景的所述虚拟位置上显示所述用户画面的步骤,包括:
确定伸缩所述初始虚拟场景的伸缩比例,按照所述伸缩比例伸缩所述用户画面,得到伸缩后的用户画面;
在所述虚拟场景的所述虚拟位置上显示所述伸缩后的用户画面。
9.一种直播显示装置,其特征在于,应用于与终端设备以及摄像设备建立连接的计算机设备,所述终端设备被分配至处于指定现实场景中的指定用户,用于实时获取并向所述计算机设备同步所述指定用户在所述指定现实场景的现实位置,所述摄像设备用于拍摄所述指定现实场景中所述指定用户的用户画面,包括:
构建模块,用于根据所述指定现实场景构建虚拟场景;
确定模块,用于基于所述终端设备同步的所述现实位置,在所述虚拟场景中确定与所述现实位置对应的虚拟位置,在所述虚拟场景的所述虚拟位置上显示所述用户画面;
显示模块,用于当检测到所述虚拟场景中的所述用户画面的虚拟位置发生改变时,基于改变前后的虚拟位置,在所述虚拟场景中显示虚拟效果。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至8任一项所述的直播显示方法中的步骤。
11.一种计算机设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述直播显示方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210399921.4A CN114745535B (zh) | 2022-04-15 | 2022-04-15 | 一种直播显示方法、装置、存储介质及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210399921.4A CN114745535B (zh) | 2022-04-15 | 2022-04-15 | 一种直播显示方法、装置、存储介质及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114745535A true CN114745535A (zh) | 2022-07-12 |
CN114745535B CN114745535B (zh) | 2024-03-12 |
Family
ID=82282200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210399921.4A Active CN114745535B (zh) | 2022-04-15 | 2022-04-15 | 一种直播显示方法、装置、存储介质及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114745535B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019134308A1 (zh) * | 2018-01-05 | 2019-07-11 | 玛雅国际文化发展有限公司 | 一种游乐场的管理系统及管理方法 |
US20200160610A1 (en) * | 2017-07-28 | 2020-05-21 | Tencent Technology (Shenzhen) Company Limited | Information processing method and apparatus, terminal device, and computer readable storage medium |
CN112044068A (zh) * | 2020-09-10 | 2020-12-08 | 网易(杭州)网络有限公司 | 人机交互方法、装置、存储介质及计算机设备 |
CN113129411A (zh) * | 2019-12-30 | 2021-07-16 | 华为技术有限公司 | 一种仿生动画生成方法及电子设备 |
-
2022
- 2022-04-15 CN CN202210399921.4A patent/CN114745535B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200160610A1 (en) * | 2017-07-28 | 2020-05-21 | Tencent Technology (Shenzhen) Company Limited | Information processing method and apparatus, terminal device, and computer readable storage medium |
WO2019134308A1 (zh) * | 2018-01-05 | 2019-07-11 | 玛雅国际文化发展有限公司 | 一种游乐场的管理系统及管理方法 |
CN113129411A (zh) * | 2019-12-30 | 2021-07-16 | 华为技术有限公司 | 一种仿生动画生成方法及电子设备 |
CN112044068A (zh) * | 2020-09-10 | 2020-12-08 | 网易(杭州)网络有限公司 | 人机交互方法、装置、存储介质及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114745535B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113426117B (zh) | 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质 | |
US11165950B2 (en) | Method and apparatus for shooting video, and storage medium | |
JP7467667B2 (ja) | 検出結果出力方法、電子機器及び媒体 | |
CN109246351B (zh) | 一种构图方法及终端设备 | |
CN113538696A (zh) | 特效生成方法、装置、存储介质及电子设备 | |
CN108174109B (zh) | 一种拍照方法及移动终端 | |
CN113426124A (zh) | 游戏中的显示控制方法、装置、存储介质及计算机设备 | |
CN113082707A (zh) | 虚拟对象的提示方法、装置、存储介质及计算机设备 | |
CN110045958B (zh) | 纹理数据生成方法、装置、存储介质及设备 | |
CN113556481B (zh) | 视频特效的生成方法、装置、电子设备及存储介质 | |
CN110717964A (zh) | 场景建模方法、终端及可读存储介质 | |
CN113487662A (zh) | 画面显示方法、装置、电子设备和存储介质 | |
CN111491124B (zh) | 视频处理方法、装置及电子设备 | |
CN113332719A (zh) | 一种虚拟物品的标记方法、装置、终端及存储介质 | |
CN113398582A (zh) | 游戏的战斗画面展示方法、装置、计算机设备及存储介质 | |
CN113360034A (zh) | 画面显示方法、装置、计算机设备及存储介质 | |
CN114745535B (zh) | 一种直播显示方法、装置、存储介质及计算机设备 | |
JP6413521B2 (ja) | 表示制御方法、情報処理プログラム、及び情報処理装置 | |
CN112245914B (zh) | 一种视角调整方法、装置、存储介质及计算机设备 | |
CN115643445A (zh) | 交互处理方法、装置、电子设备及存储介质 | |
CN111654755B (zh) | 一种视频编辑方法及电子设备 | |
CN112957732B (zh) | 搜索方法、装置、终端及存储介质 | |
CN112367533B (zh) | 交互业务的处理方法、装置、设备及计算机可读存储介质 | |
CN110012229B (zh) | 一种图像处理方法和终端 | |
CN115225926B (zh) | 游戏直播的画面处理方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |