CN111698425B - 一种实现实景漫游技术连贯性的方法 - Google Patents

一种实现实景漫游技术连贯性的方法 Download PDF

Info

Publication number
CN111698425B
CN111698425B CN202010571892.6A CN202010571892A CN111698425B CN 111698425 B CN111698425 B CN 111698425B CN 202010571892 A CN202010571892 A CN 202010571892A CN 111698425 B CN111698425 B CN 111698425B
Authority
CN
China
Prior art keywords
camera
scene
time
moving
scenes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010571892.6A
Other languages
English (en)
Other versions
CN111698425A (zh
Inventor
钟祥灵
韩雷
徐庆
银镭
余驰
任森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Keyi World Technology Co.,Ltd.
Original Assignee
Sichuan Keyi World Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Keyi World Technology Co ltd filed Critical Sichuan Keyi World Technology Co ltd
Priority to CN202010571892.6A priority Critical patent/CN111698425B/zh
Publication of CN111698425A publication Critical patent/CN111698425A/zh
Application granted granted Critical
Publication of CN111698425B publication Critical patent/CN111698425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供一种实现实景漫游技术连贯性的方法,包括如下步骤:S1.利用相机拍摄全景图并对全景图进行优化处理;S2.将多个场景的全景图进行拼接;S3.构建全景图来补全全景图的空间信息;S4.通过编辑路径点来规划可移动路线;S5.通过摄像机朝向及路径来计算出目标场景;S6.计算出摄像机移动速度,同时以计算出的速度来移动虚拟摄像机;S7.目标场景加载完毕后停止摄像机移动,通过目标场景的实际加载时间和预测的加载时间来修正摄像机移动速度;S8.继续移动摄像机,同时融合场景,确保摄像机移动时间和场景融合时间基本一致;S9.记录该次场景加载时间,并通过统计对加载时间进行修正。本发明解决了场景之间切换的不连贯性的问题。

Description

一种实现实景漫游技术连贯性的方法
技术领域
本发明涉及虚拟现实技术领域,更具体地涉及一种实现实景漫游技术连贯性的方法。
背景技术
虚拟现实技术给用户带来沉浸式的体验,随着它的发展,实景漫游也成为一种备受关注的技术。目前,实景漫游技术主要分为两类,一类是通过数字建模的方式打造类似现实的场景,另一类是通过相机拍摄进行展示的实景漫游技术。
数字建模方式通过大量的计算得出场景模型和严格的光照系统来打造大概的场景,然后收集真实物体的纹理来对模型进行贴图、着色等,这种方式对工程师的专业水平和计算机要求比较高,因此成本特别昂贵,而且很难达到真实场景的效果。
随着数码相机的不断普及,相机成像效果的提升,基于相机拍摄进行展示的实景漫游技术让用户体验效果变得越来越好,建立场景的成本也越来越小,所以一般实景漫游考虑到效果和成本都会选择这种方式。然而市面上大部分基于相机拍摄这种方式的实景漫游系统,要不就是在全景图之间通过用户点击按钮切换不同的场景图来达到场景之间的跳转,要不就是播放一段全景视频,让你跟随拍摄时的路线进行体验。对于前一种方法,场景之间切换没有连贯性,只是单纯的在图像之间跳转,不易让用户有在场景中真实行走的体验,后一种方法只是按照单一的拍摄路径进行播放,虽然通过视频的方式让整个过程有了连贯性,但用户只是单独的观看了一段视频而已,并没有做到行走路线的自由选择。
发明内容
本发明提供了一种实现实景漫游技术连贯性的方法,以解决场景之间切换的不连贯性的问题。
为解决上述技术问题,本发明所采用的技术方案是:一种实现实景漫游技术连贯性的方法,包括如下步骤:
步骤S1.利用相机拍摄全景图并对全景图进行优化处理;
步骤S2.将多个场景的全景图进行拼接;
步骤S3.构建全景图来补全全景图的空间信息;
步骤S4.通过编辑路径点来规划可移动路线;
步骤S5.通过摄像机朝向及路径来计算出目标场景;
步骤S6.通过预测目标场景的加载时间和场景之间距离来计算出摄像机移动速度,加载目标场景,同时以计算出的速度来移动虚拟摄像机;
步骤S7.目标场景加载完毕后停止摄像机移动,通过目标场景的场景加载时间和预测的加载时间来修正摄像机移动速度;
步骤S8.继续移动摄像机,同时融合场景,确保摄像机移动时间和场景融合时间基本一致;
步骤S9.记录该次场景加载时间,并通过统计对加载时间进行修正。
进一步地,步骤S5中,根据当前场景的路径点和第4步中编辑好的路线数据,计算出当前路径点与该路径点相连的所有点的方向角度,通过这些方向计算出这些方向与摄像机朝向的夹角,找出这些夹角的最小值,如果该夹角小于设定的探索范围,探索范围设定为90度,即找到了目标场景的路径点。路径点连线方向计算方法:假设当前路径点坐标为(x0,y0,z0),相连路径点坐标为(x1,y1,z1),方向角度γ=atan(z1-z0,x1-x0)。路径点连线和摄像机方向夹角计算:假设摄像机方向角度为φ,路径点连线方向为γ,夹角θ=γ-φ。
进一步地,步骤S6中,移动速度计算方法:假设基础移动速度为V0,两个场景之间距离为S,预估加载时间为t,移动速度V=S/(S/V0+t)。
进一步地,步骤S7中,场景加载完成时,预估的加载时机可能和场景加载时间可能不一样,这是需要调整摄像机移动速度,具体计算方法如下:假设基础移动速度为V0,预估加载时间为t0,场景加载时间为t1,两个场景之间距离为S,摄像机第一段移动速度V1=S/(S/V0+t0),摄像机第一段移动距离S1=V1*t1,剩余距离S2=S-S1,剩余的距离需要移动的时间t2=S2/V1,场景融合时间t3=S/V0,如果t3大于t2,把t3赋值给t2,修正后的速度V=S2/t2。
进一步地,步骤S1包括:
步骤S11.对全景图进行校色处理;
步骤S12.校色完成后进行水平校正;
步骤S13.对全景图,视觉中心校正;
步骤S14.全景图效果达到要求后,对全景图进行补地处理。
进一步地,步骤S2包括:
步骤S21.把处理好的全景图缩小图片大小;
步骤S22.在建好的工程文件里,导入改小的全景图并根据路线图排序;
步骤S23.设置好相机高度,并同步到导入的每张全景图;
步骤S24.开始关联导入的每张全景图,连接每个全景图,形成整体的场景,实现对真实场景的初步模拟。
进一步地,步骤S3包括:
步骤S31.根据平面立面障碍物的关系,补足3D信息,实现对真实场景的仿真模拟,构建的结构一定保持架构方正,补全全景图空间信息后,所有场景的空间信息串联起来,可以实现摄像机的跨场景移动。
本发明的方法原理如下:
1.利用相机拍摄全景图并对全景图进行优化处理。
其中,对全景图的具体优化如下:
a.对全景图进行校色处理。
b.校色完成后进行水平校正。
c.对全景图,视觉中心校正。
d.全景图效果达到要求后,对全景图进行补地处理。
2.将多个场景的全景图进行拼接。
a.把处理好的全景图缩小图片大小。
b.在建好的工程文件里,导入改小的全景图并根据路线图排序。
c.设置好相机高度,并同步到导入的每张全景图。
d.开始关联导入的每张全景图,连接每个全景图,形成整体的场景,实现对真实场景的初步模拟。
3.构建全景图来补全全景图的空间信息。
其中,根据平面立面障碍物的关系,补足3D信息,实现对真实场景的仿真模。构建的结构一定保持架构方正。补全全景图空间信息后,所有场景的空间信息串联起来,可以实现摄像机的跨场景移动。
4.通过编辑路径点来规划可移动路线。
使用自研编辑器可以编辑规划路线,在编辑器中单击选中路径点,会弹出路径编辑窗口,可以对该点可以到达的点进行编辑,如对索引为3的点进行编辑,索引为3的点可以到达索引为2的点和索引为4的点。
5.通过摄像机朝向及路径来计算出目标场景。
其中,根据当前场景的路径点和第4步中编辑好的路线数据,计算出当前路径点与该路径点相连的所有点的方向角度,通过这些方向计算出这些方向与摄像机朝向的夹角。找出这些夹角的最小值,如果该夹角小于设定的探索范围(角度范围,在此设定的是90度),即找到了目标场景的路径点。路径点连线方向计算方法:假设当前路径点坐标为(x0,y0,z0),相连路径点坐标为(x1,y1,z1),方向角度γ=atan(z1-z0,x1-x0)。路径点连线和摄像机方向夹角计算:假设摄像机方向角度为φ,路径点连线方向为γ,夹角θ=γ-φ。
6.通过预测目标场景的加载时间和场景之间距离来计算出摄像机移动速度,加载目标场景,同时以计算出的速度来移动虚拟摄像机。
移动速度计算方法:假设基础移动速度为V0,两个场景之间距离为S,预估加载时间为t,移动速度V=S/(S/V0+t)。
7.目标场景加载完毕后停止摄像机移动,通过目标场景的场景加载时间和预测的加载时间来修正摄像机移动速度。
场景加载完成时,预估的加载时机可能和场景加载时间可能不一样,这是需要调整摄像机移动速度,具体计算方法如下:假设基础移动速度为V0,预估加载时间为t0,场景加载时间为t1,两个场景之间距离为S,摄像机第一段移动速度V1=S/(S/V0+t0),摄像机第一段移动距离S1=V1*t1,剩余距离S2=S-S1,剩余的距离需要移动的时间t2=S2/V1,场景融合时间t3=S/V0,如果t3大于t2,把t3赋值给t2,修正后的速度V=S2/t2。
8.继续移动摄像机,同时融合场景,确保摄像机移动时间和场景融合时间基本一致。
9.记录该次场景加载时间,并通过统计对加载时间进行修正。
每次的场景加载时间都会记录下来,根据统计的数据求平均值,该平均值即为下次场景加载的预估加载时间。
本发明的原理总结如下:
1、通过预估目标场景加载时间和基础移动速度计算出摄像机移动速度,加载场景的同时移动摄像机,解决了场景加载时摄像机不移动而造成的停顿问题。
2、目标场景加载完成后,对摄像机移动速度进行修正,以确保摄像机的移动时间和场景融合时间尽量一致。
3、通过大量数据对预估加载时间进行修正,解决了两次摄像机移动的速度尽量一致。
综合以上3点实现了场景的平滑切换,解决了场景之间切换的不连贯性问题。
与现有技术相比,本发明具有以下有益效果:本发明的实现实景漫游技术连贯性的方法通过相机拍摄的全景图构建三维场景,高度还原了真实场景,通过虚拟摄像机的移动和场景融合来实现场景的平滑切换,解决了场景之间切换的不连贯性问题,让用户有在真实场景中行走的体验。
附图说明
图1为本发明的一种实现实景漫游技术连贯性的方法的步骤示意图。
图2为本发明的一种实现实景漫游技术连贯性的方法的原理示意图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
下面结合实施例对本发明作进一步的描述,所描述的实施例仅仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例,本领域的普通技术人员在没有做出创造性劳动前提下所获得的其他所用实施例,都属于本发明的保护范围。
请参阅图1至图2,图中所示者为本发明所选用的实施例结构,此仅供说明之用,在专利申请上并不受此种结构的限制。
实施例一
如图1所示,一种实现实景漫游技术连贯性的方法,包括如下步骤:
步骤S1.利用相机拍摄全景图并对全景图进行优化处理;
步骤S2.将多个场景的全景图进行拼接;
步骤S3.构建全景图来补全全景图的空间信息;
步骤S4.通过编辑路径点来规划可移动路线;
步骤S5.通过摄像机朝向及路径来计算出目标场景;
步骤S6.通过预测目标场景的加载时间和场景之间距离来计算出摄像机移动速度,加载目标场景,同时以计算出的速度来移动虚拟摄像机;
步骤S7.目标场景加载完毕后停止摄像机移动,通过目标场景的场景加载时间和预测的加载时间来修正摄像机移动速度;
步骤S8.继续移动摄像机,同时融合场景,确保摄像机移动时间和场景融合时间基本一致;
步骤S9.记录该次场景加载时间,并通过统计对加载时间进行修正。
实施例二
如图2所示,本发明的方法原理如下:
1.利用相机拍摄全景图并对全景图进行优化处理。
其中,对全景图的具体优化如下:
a.对全景图进行校色处理。
b.校色完成后进行水平校正。
c.对全景图,视觉中心校正。
d.全景图效果达到要求后,对全景图进行补地处理。
2.将多个场景的全景图进行拼接。
a.把处理好的全景图缩小图片大小。
b.在建好的工程文件里,导入改小的全景图并根据路线图排序。
c.设置好相机高度,并同步到导入的每张全景图。
d.开始关联导入的每张全景图,连接每个全景图,形成整体的场景,实现对真实场景的初步模拟。
其中,图像拼接过程中,使用RANSAC算法进行固定区域内SIFT特征提取,实现图像配准,再建立变换模型,统一坐标变换,再进行多频段图像融合。
3.构建全景图来补全全景图的空间信息。
其中,根据平面立面障碍物的关系,补足3D信息,实现对真实场景的仿真模。构建的结构一定保持架构方正。补全全景图空间信息后,所有场景的空间信息串联起来,可以实现摄像机的跨场景移动。
4.通过编辑路径点来规划可移动路线。
使用自研编辑器可以编辑规划路线,在编辑器中单击选中路径点,会弹出路径编辑窗口,可以对该点可以到达的点进行编辑,如对索引为3的点进行编辑,索引为3的点可以到达索引为2的点和索引为4的点。
5.通过摄像机朝向及路径来计算出目标场景。
其中,根据当前场景的路径点和第4步中编辑好的路线数据,计算出当前路径点与该路径点相连的所有点的方向角度,通过这些方向计算出这些方向与摄像机朝向的夹角。找出这些夹角的最小值,如果该夹角小于设定的探索范围(角度范围,在此设定的是90度),即找到了目标场景的路径点。路径点连线方向计算方法:假设当前路径点坐标为(x0,y0,z0),相连路径点坐标为(x1,y1,z1),方向角度γ=atan(z1-z0,x1-x0)。路径点连线和摄像机方向夹角计算:假设摄像机方向角度为φ,路径点连线方向为γ,夹角θ=γ-φ。
6.通过预测目标场景的加载时间和场景之间距离来计算出摄像机移动速度,加载目标场景,同时以计算出的速度来移动虚拟摄像机。
移动速度计算方法:假设基础移动速度为V0,两个场景之间距离为S,预估加载时间为t,移动速度V=S/(S/V0+t)。
7.目标场景加载完毕后停止摄像机移动,通过目标场景的场景加载时间和预测的加载时间来修正摄像机移动速度。
场景加载完成时,预估的加载时机可能和场景加载时间可能不一样,这是需要调整摄像机移动速度,具体计算方法如下:假设基础移动速度为V0,预估加载时间为t0,场景加载时间为t1,两个场景之间距离为S,摄像机第一段移动速度V1=S/(S/V0+t0),摄像机第一段移动距离S1=V1*t1,剩余距离S2=S-S1,剩余的距离需要移动的时间t2=S2/V1,场景融合时间t3=S/V0,如果t3大于t2,把t3赋值给t2,修正后的速度V=S2/t2。
8.继续移动摄像机,同时融合场景,确保摄像机移动时间和场景融合时间基本一致。
9.记录该次场景加载时间,并通过统计对加载时间进行修正。
每次的场景加载时间都会记录下来,根据统计的数据求平均值,该平均值即为下次场景加载的预估加载时间。
本发明的原理总结如下:
1、通过预估目标场景加载时间和基础移动速度计算出摄像机移动速度,加载场景的同时移动摄像机,解决了场景加载时摄像机不移动而造成的停顿问题。
2、目标场景加载完成后,对摄像机移动速度进行修正,以确保摄像机的移动时间和场景融合时间尽量一致。人的感知信息的80%的部分源于人的眼睛,因此视觉感知的效果对漫游场景给用户产生的主观感知起着举足轻重的作用,而眼睛的视觉暂留时间为0.1-0.4秒左右,所以摄像机的移动时间和场景融合时间之间的误差小于0.4秒,仿真效果为最佳,场景连续性好。
3、通过大量数据对预估加载时间进行修正,解决了两次摄像机移动的速度尽量一致。
综合以上3点实现了场景的平滑切换,解决了场景之间切换的不连贯性问题。
以上所述实施例是用以说明本发明,并非用以限制本发明,所以举例数值的变更或等效元件的置换仍应隶属本发明的范畴。
由以上详细说明,可使本领域普通技术人员明了本发明的确可达成前述目的,实已符合专利法的规定,现提出专利申请。

Claims (3)

1.一种实现实景漫游技术连贯性的方法,其特征在于,包括如下步骤:
步骤S1.利用相机拍摄全景图并对全景图进行优化处理;
步骤S2.将多个场景的全景图进行拼接;
步骤S3.构建全景图来补全全景图的空间信息;
步骤S4.通过编辑路径点来规划可移动路线;
步骤S5.通过摄像机朝向及路径来计算出目标场景;
步骤S6.通过预测目标场景的加载时间和场景之间距离来计算出摄像机移动速度,加载目标场景,同时以计算出的速度来移动虚拟摄像机;
步骤S7.目标场景加载完毕后停止摄像机移动,通过目标场景的场景加载时间和预测的加载时间来修正摄像机移动速度;
步骤S8.继续移动摄像机,同时融合场景,确保摄像机移动时间和场景融合时间基本一致;
步骤S9.记录该次场景加载时间,并通过统计对加载时间进行修正;
步骤S7中,场景加载完成时,预估的加载时机可能和场景加载时间可能不一样,这是需要调整摄像机移动速度,具体计算方法如下:假设基础移动速度为V0,预估加载时间为t0,场景加载时间为t1,两个场景之间距离为S,摄像机第一段移动速度V1=S/(S/V0+t0),摄像机第一段移动距离S1=V1*t1,剩余距离S2=S-S1,剩余的距离需要移动的时间t2=S2/V1,场景融合时间t3=S/V0,如果t3大于t2,把t3赋值给t2,修正后的速度V=S2/t2。
2.如权利要求1所述的一种实现实景漫游技术连贯性的方法,其特征在于,步骤S5中,根据当前场景的路径点和第4步中编辑好的路线数据,计算出当前路径点与该路径点相连的所有点的方向角度,通过这些方向计算出这些方向与摄像机朝向的夹角,找出这些夹角的最小值,如果该夹角小于设定的探索范围,探索范围设定为90度,即找到了目标场景的路径点;
路径点连线方向计算方法:假设当前路径点坐标为(x0,y0,z0),相连路径点坐标为(x1,y1,z1),方向角度γ=atan(z1-z0,x1-x0);
路径点连线和摄像机方向夹角计算:假设摄像机方向角度为φ,路径点连线方向为γ,夹角θ=γ-φ。
3.如权利要求2所述的一种实现实景漫游技术连贯性的方法,其特征在于,步骤S6中,移动速度计算方法:假设基础移动速度为V0,两个场景之间距离为S,预估加载时间为t,移动速度V=S/(S/V0+t)。
CN202010571892.6A 2020-06-22 2020-06-22 一种实现实景漫游技术连贯性的方法 Active CN111698425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010571892.6A CN111698425B (zh) 2020-06-22 2020-06-22 一种实现实景漫游技术连贯性的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010571892.6A CN111698425B (zh) 2020-06-22 2020-06-22 一种实现实景漫游技术连贯性的方法

Publications (2)

Publication Number Publication Date
CN111698425A CN111698425A (zh) 2020-09-22
CN111698425B true CN111698425B (zh) 2021-11-23

Family

ID=72482593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010571892.6A Active CN111698425B (zh) 2020-06-22 2020-06-22 一种实现实景漫游技术连贯性的方法

Country Status (1)

Country Link
CN (1) CN111698425B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379838B (zh) * 2021-08-16 2021-10-22 贝壳技术有限公司 虚拟现实场景的漫游路径的生成方法和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104641399A (zh) * 2012-02-23 2015-05-20 查尔斯·D·休斯顿 用于创建环境并用于共享环境中基于位置的体验的系统和方法
CN105976424A (zh) * 2015-12-04 2016-09-28 乐视致新电子科技(天津)有限公司 一种图像渲染处理的方法及装置
CN106056655A (zh) * 2016-09-06 2016-10-26 珠海金山网络游戏科技有限公司 一种可编辑的虚拟摄像机系统和方法
CN107219888A (zh) * 2017-05-23 2017-09-29 北京中达金桥技术股份有限公司 基于Kinect的室内可扩展交互漫游实现方法及系统
CN108022286A (zh) * 2017-11-30 2018-05-11 腾讯科技(深圳)有限公司 画面渲染方法、装置及存储介质
CN108257219A (zh) * 2018-01-31 2018-07-06 广东三维家信息科技有限公司 一种实现全景多点漫游的方法
CN108322625A (zh) * 2017-12-28 2018-07-24 杭州蜜迩科技有限公司 一种基于全景图的全景视频制作方法
CN108833863A (zh) * 2018-07-24 2018-11-16 河北德冠隆电子科技有限公司 四维实景交通仿真的虚拟摄像机监控监视查看预览方法
CN110769240A (zh) * 2019-08-23 2020-02-07 上海亦我信息技术有限公司 基于拍照的3d建模系统及方法、自动3d建模装置及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728755B (zh) * 2018-07-16 2022-09-27 阿里巴巴集团控股有限公司 场景间漫游、模型拓扑创建、场景切换方法及系统
CN110209325A (zh) * 2019-05-07 2019-09-06 高新兴科技集团股份有限公司 一种3d场景显示控制方法、系统及设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104641399A (zh) * 2012-02-23 2015-05-20 查尔斯·D·休斯顿 用于创建环境并用于共享环境中基于位置的体验的系统和方法
CN105976424A (zh) * 2015-12-04 2016-09-28 乐视致新电子科技(天津)有限公司 一种图像渲染处理的方法及装置
CN106056655A (zh) * 2016-09-06 2016-10-26 珠海金山网络游戏科技有限公司 一种可编辑的虚拟摄像机系统和方法
CN107219888A (zh) * 2017-05-23 2017-09-29 北京中达金桥技术股份有限公司 基于Kinect的室内可扩展交互漫游实现方法及系统
CN108022286A (zh) * 2017-11-30 2018-05-11 腾讯科技(深圳)有限公司 画面渲染方法、装置及存储介质
CN108322625A (zh) * 2017-12-28 2018-07-24 杭州蜜迩科技有限公司 一种基于全景图的全景视频制作方法
CN108257219A (zh) * 2018-01-31 2018-07-06 广东三维家信息科技有限公司 一种实现全景多点漫游的方法
CN108833863A (zh) * 2018-07-24 2018-11-16 河北德冠隆电子科技有限公司 四维实景交通仿真的虚拟摄像机监控监视查看预览方法
CN110769240A (zh) * 2019-08-23 2020-02-07 上海亦我信息技术有限公司 基于拍照的3d建模系统及方法、自动3d建模装置及方法

Also Published As

Publication number Publication date
CN111698425A (zh) 2020-09-22

Similar Documents

Publication Publication Date Title
US10846913B2 (en) System and method for infinite synthetic image generation from multi-directional structured image array
CN111698390B (zh) 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统
US9947134B2 (en) System and method for generating a dynamic three-dimensional model
US20170148186A1 (en) Multi-directional structured image array capture on a 2d graph
US9160938B2 (en) System and method for generating three dimensional presentations
JP5861499B2 (ja) 動画提示装置
US20150009298A1 (en) Virtual Camera Control Using Motion Control Systems for Augmented Three Dimensional Reality
US20180182114A1 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
CN105072314A (zh) 一种可自动跟踪目标的虚拟演播室实现方法
US20190304170A1 (en) Reconstructing views of real world 3d scenes
US20230186550A1 (en) Optimizing generation of a virtual scene for use in a virtual display environment
CN105069827A (zh) 一种采用三维模型处理视频转场的方法
CN109803094A (zh) 一种虚拟三维场景编辑系统、方法及装置
US11176716B2 (en) Multi-source image data synchronization
CN111698425B (zh) 一种实现实景漫游技术连贯性的方法
Kanade et al. Virtualized reality: perspectives on 4D digitization of dynamic events
US20220353484A1 (en) Information processing apparatus, information processing method, and program
US11245833B1 (en) Smoothly changing a focus of a camera between multiple target objects
CN115914718A (zh) 截取引擎渲染内容的虚拟制片视频重映方法及系统
JP2017069920A (ja) 自由視点画像データ生成装置および自由視点画像データ再生装置
US10078905B2 (en) Processing of digital motion images
JP2005080015A (ja) 撮像装置及び方法
KR20150031662A (ko) 동영상 장치 및 그것의 동영상 생성 및 재생 방법
US11605171B1 (en) Method and apparatus for processing reference inputs for video compositing with replacement
KR102654323B1 (ko) 버추얼 프로덕션에서 2차원 이미지의 입체화 처리를 위한 방법, 장치 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20211102

Address after: 610000 room 1004, floor 10, building 8, No. 388, north section of Yizhou Avenue, high tech Zone, Chengdu, Sichuan

Applicant after: Sichuan Keyi World Technology Co.,Ltd.

Address before: Room 15-21, 4th floor, building 2, No. 1366, middle section of Tianfu Avenue, high tech Zone, Chengdu, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610000

Applicant before: Sichuan yire Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant