CN110060201B - 一种全景视频的热点交互方法 - Google Patents
一种全景视频的热点交互方法 Download PDFInfo
- Publication number
- CN110060201B CN110060201B CN201910297415.2A CN201910297415A CN110060201B CN 110060201 B CN110060201 B CN 110060201B CN 201910297415 A CN201910297415 A CN 201910297415A CN 110060201 B CN110060201 B CN 110060201B
- Authority
- CN
- China
- Prior art keywords
- panoramic video
- target object
- hot spot
- image
- hotspot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000002372 labelling Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000009877 rendering Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Software Systems (AREA)
- Computational Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Algebra (AREA)
- Geometry (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及全景视频互动技术领域,具体涉及一种全景视频的热点交互方法,该方法包括如下步骤:对原始视频图像进行拼接,以生成球面全景视频;对所述全景视频进行重构,生成不同视线方向上的透视图;在目标物的球面坐标处设置热点,将目标物的属性信息作为热点关联信息。本发明的全景视频的热点交互方法在全景视频中为城市公共安全监管的目标物按照球面坐标信息设置了热点,将目标物的属性信息作为热点关联信息,并将目标物的属性信息关联至热点在不同视线透视图上的投影点,通过热点实现了视频内容与属性信息的交互,便于用户管理。
Description
技术领域
本发明涉及全景视频互动技术领域,具体涉及一种全景视频的热点交互方法。
背景技术
随着视频应用技术与城市公共安全监管系统的逐步推进,目前各大城市的视频监管点的数量都已达到一定的数量级。
全景视频技术和全景摄像机也已经在城市管理中应用,同传统视频不同,全景视频打破了传统视频视场角的限制,可以完全沉浸在视频所展现的环境当中。自主交互性是全景视频区别于传统视频的最显著特征,使用者可以任意的变换视角,任意的缩放,现有的全景视频交互过程主要是依靠鼠标、或者是键盘。
鉴于此,克服以上现有技术中的缺陷,提供一种新的适用于在城市公共安全领域的全景视频的热点交互方法成为本领域亟待解决的技术问题。
发明内容
本发明的目的可通过以下的技术措施来实现:
本发明提供了一种全景视频的热点交互方法,所述交互方法包括:
S1,获取原始视频图像,对所述原始视频图像进行拼接,以生成球面全景视频;
S2,利用球面重投影算法在以所述全景视频的球心为视点的不同视线方向上对所述全景视频进行重构,生成不同视线方向上的透视图;
S3,在所述全景视频中接收对目标物的点选操作,将所述点选操作对应的像素位置配置为热点,获取所述热点的球面坐标信息,将所述目标物的属性信息与所述热点的球面坐标信息进行关联;
S4,获取所述透视图上与所述热点对应的投影点的图像坐标信息,将所述投影点的图像坐标信息与所述热点的球面坐标信息建立映射关系;
S5,将所述目标物的部分或全部属性信息作为标注内容按照所述热点的球面坐标信息以及所述热点对应的投影点的图像坐标信息分别在所述全景视频和所述透视图中进行显示。
优选地,步骤S1包括:
S11,对视频流图像帧进行特征点提取;
S12,对所述图像帧进行特征点匹配,利用最小二乘法或随机抽样一致算法对所述特征点匹配中的误匹配点进行剔除;
S13,基于剔除误匹配点的特征点,建立图像帧的配准模型;
S14,根据所述配准模型在球体模型的三维球面上将图像帧进行配准,生成球面全景视频。
优选地,步骤S2包括:
S21,建立以所述全景视频的球心为原点的世界坐标系XYZ,将世界坐标系XYZ绕X轴旋转α度,得到相机坐标系xyz;
S22,根据原始视频图像的像素高度H及像素宽度W、和相机的焦距r建立图像点在透视图中的二维图像坐标与所述图像点在相机坐标系xyz的对应坐标的转换关系;
S23,根据所述转换关系、以及世界坐标系XYZ与相机坐标系xyz的变换矩阵,建立全景视频中任意点投影到透视图的对应投影点的坐标转换关系,计算对应投影点在透视图上的二维图像坐标,生成不同视线方向上的透视图。
优选地,在步骤S3中,当所述目标物移动时,获取所述目标物在全景视频中首次出现的图像帧,在所述图像帧中接收对所述目标物的点选操作,将所述点选操作对应的像素位置配置为初始热点,获取所述初始热点的球面坐标信息,将所述目标物的属性信息与所述初始热点的球面坐标信息进行关联。
优选地,在步骤S3中还包括:
在所述图像帧中对所述目标物在上下左右四个方向放大X个像素,对放大区域进行特征提取,得到目标物的特征信息,其中,X为大于20且小于50的自然数;
继续播放全景视频,根据所述特征信息在全景视频的图像帧中进行目标物识别,将识别区域配置为后续热点,将所述目标物的属性信息与所述后续热点的球面坐标信息进行关联。
优选地,在步骤S4中,当所述目标物移动时,获取所述透视图上与所述初始热点及所述后续热点对应的投影点的图像坐标信息,将所述投影点的图像坐标信息与对应初始热点或后续热点的球面坐标信息建立映射关系。
优选地,所述交互方法还包括:
S6,利用WebGL加载所述全景视频和所述透视图,将所述全景视频和所述透视图作为纹理渲染到3D几何模型上。
优选地,所述交互方法还包括:
接收目标物的属性信息,所述属性信息包括文字、图片、矢量图、音频、视频、网址链接中的一种或组合;
创建所述全景视频的标注图层,并在标注图层中存储所述目标物的热点的球面坐标信息、与所述热点对应的投影点的图像坐标信息以及目标物的标注内容,所述标注内容包括目标物的部分或全部属性信息。
优选地,步骤S5包括:
在播放全景视频中出现所述目标物时,在标注图层中读取并在全景视频的热点处以及透视图的对应投影点处显示所述目标物对应的标注内容。
优选地,在步骤S4中,将所述透视图上与所述热点对应的投影点配置为热点。
本发明的全景视频的热点交互方法在全景视频中为城市公共安全监管的目标物按照球面坐标信息设置了热点,将目标物的属性信息作为热点关联信息,并将目标物的属性信息关联至热点在不同视线透视图上的投影点,通过热点实现了视频内容与属性信息的交互,便于用户管理。
附图说明
图1是本发明第一实施例的全景视频的热点交互方法的流程图。
图2是本发明实施例的交互方法中球面全景图的重投影坐标系示意图。
图3是本发明实施例的交互方法中热点示意图。
图4是本发明第二实施例的全景视频的热点交互方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了使本揭示内容的叙述更加详尽与完备,下文针对本发明的实施方式与具体实施例提出了说明性的描述;但这并非实施或运用本发明具体实施例的唯一形式。实施方式中涵盖了多个具体实施例的特征以及用以建构与操作这些具体实施例的方法步骤与其顺序。然而,亦可利用其它具体实施例来达成相同或均等的功能与步骤顺序。
应当理解,尽管在本申请实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,此外,所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本发明第一实施例提供了一种全景视频的热点交互方法,请参阅图1所示,该交互方法包括如下步骤:
S101,获取原始视频图像,对该原始视频图像进行拼接,以生成球面全景视频。
S102,利用球面重投影算法在以该全景视频的球心为视点的不同视线方向上对该全景视频进行重构,生成不同视线方向上的透视图。
S103,在该全景视频中接收对目标物的点选操作,将该点选操作对应的像素位置配置为热点,获取该热点的球面坐标信息,将该目标物的属性信息与该热点的球面坐标信息进行关联。
S104,获取该透视图上与该热点对应的投影点的图像坐标信息,将该投影点的图像坐标信息与该热点的球面坐标信息建立映射关系。
S105,将该目标物的部分或全部属性信息作为标注内容按照该热点的球面坐标信息以及该热点对应的投影点的图像坐标信息分别在该全景视频和该透视图中进行显示。
在步骤S101中,获取至少二帧原始视频的图像帧,并对该至少二帧原始视频的图像帧进行视频拼接,拼接后生成全景视频。
首先,对视频流图像帧进行特征点提取;然后,对该图像帧进行特征点匹配,利用最小二乘法或随机抽样一致算法(Random Sample Consensus,RANSAC)对该特征点匹配中的误匹配点进行剔除;然后,基于剔除误匹配点的特征点,建立图像帧的配准模型;最后,根据该配准模型在球体模型的三维球面上将图像帧进行配准,生成球面全景视频。
RANSAC算法需要在一定的置信概率P下使用,P一般设置为0.99,且进行N组抽样中至少有一组数据全是局内点,N的计算公式如下:
RANSAC算法具体步骤如下:
计算当前的参数模型,去适应于假设的局内点,模型中的所有未知参数能够通过输入样本计算得到,并且初始化参数;对由特征点匹配得到的假定对应点,计算其对称变换误差,统计误差的局内点的个数;如果有足够多的点被归类为假设的局内点,那么估计的模型就足够合理;利用上述公式计算循环次数N,循环执行第1到3步。
当循环结束时,用最大局内点集再进行一次参数模型的计算,得到的变换矩阵H即为最优的模型矩阵。
在步骤S102中,全景视频可以实现水平360度任意视角(观看角度)方向的环视,浏览全景视频时,需要根据当前视线方向和视域范围对球面的全景视频进行重投影变换,生成符合人眼视觉习惯的平面的透视图,其中,视域范围与原始视频的参数相关,即为拍摄原始视频的相机的视域。使用球面全景图的重投影算法,模拟相机的旋转运动,并通过改变相机的视域,可以模拟相机的变焦运动,进而模拟观察者的视点,将相应场景展现出来。
球面全景图的重投影算法的原理如下:建立以该全景视频的球心为原点的世界坐标系XYZ,将世界坐标系XYZ绕X轴旋转α度,得到相机坐标系xyz,二者之间可以通过旋转α度相互得到。请参阅图2所示,O为透视图K的二维坐标系的原点,O’为相机坐标系xyz的原点,对于全景视频中任意一点P`,其在透视图K(二维图像平面)上对应的投影点为P(x,y),P`在球面上的坐标为P`(Φ,λ),λ是透视图所在平面与相机坐标系xyz间的水平旋转角,Φ是俯仰角,H是图像的像素高度,W是像素宽度。
虚拟相机在三维空间中具有3个旋转自由度:绕X轴的旋转,旋转角度为pitch;绕Y轴的旋转,旋转角度为yaw;绕Z轴的旋转,旋转角度为roll。
相机绕X轴的旋转矩阵Rx为:
相机绕Y轴地点旋转矩阵Ry为:
当相机同时绕X轴和Y轴旋转时,旋转的复合旋转矩阵R=Rx·Ry。
世界坐标系XYZ与相机坐标系xyz的变换矩阵为1/=Rx。
由以上关系可得点P(x,y)在相机坐标系xyz下的坐标为(x-W/2,y-H/2,r),点P(x,y)在世界坐标系XYZ下的坐标(u,v,w)为:
通过建立全景视频中任意点P`投影到透视图的对应投影点P的坐标转换关系,根据P在世界坐标系XYZ下的坐标(u,v,w)和上述坐标转换关系计算对应投影点P在透视图上的二维图像坐标(x,y),生成不同视线方向上的透视图。
在步骤S103和步骤S104中,为了在全景视频中实现与目标物的交互,本发明实施例在全景视频的图像帧画面上和重构的各透视图上设置目标物的交互热点。
当目标物为建筑物时,目标物的热点为静态热点,在全景视频中相对静止;当目标物为车辆或行人时,目标物的热点为动态热点,在全景视频中随着车辆或行人的位置移动而不断变化。建筑物属性信息可以包括但不限于名称、地址、安全等级等。
当目标物呈静态时,对全景视频的图像帧中的目标物所在的位置进行点选操作,将点选的像素位置转换为球面坐标点,将该球面坐标点配置为热点,通过数据库技术建立热点信息存储表,存储目标物的属性信息,将该目标物的属性信息与该热点的球面坐标信息进行关联。对该透视图上与该热点对应的投影点与该热点建立映射关系,在该热点以及该热点对应的投影点上均显示热点图标,也就是说,在全景视频图像帧的画面上以及在透视图上均显示热点图标,热点图标中写有标注内容,标注内容为目标物的属性信息,标注内容可以是部分属性信息,也可以是全部属性信息。
进一步地,可以将透视图的投影点也配置为热点,用户可以在透视图上直接进行交互。
当目标物呈动态时,获取该目标物在全景视频中首次出现的图像帧,在该图像帧中接收对该目标物的点选操作,将该点选操作对应的像素位置转换为球面坐标点,将该球面坐标点配置为初始热点,获取该初始热点的球面坐标信息,通过数据库技术建立热点信息存储表,存储目标物的属性信息,将该目标物的属性信息与该初始热点的球面坐标信息进行关联;在该图像帧中对该目标物在上下左右四个方向放大X个像素,对放大区域进行特征提取,得到目标物的特征信息,其中,X为大于20且小于50的自然数;继续播放全景视频,根据该特征信息在全景视频的图像帧中进行目标物识别,找出所有目标物出现的图像帧,将图像帧上的识别区域转换为球面坐标点,将该球面坐标点配置为后续热点,具体地,对该放大区域图像进行分割并提取特征,经过T时间间隔后,在全景视频图像帧中查找该特征并作为下一个热点,并不断重复以上过程计算出所有热点。将该目标物的属性信息与该后续热点的球面坐标信息进行关联;获取该透视图上与该初始热点及该后续热点对应的投影点的图像坐标信息,将该投影点的图像坐标信息与对应初始热点或后续热点的球面坐标信息建立映射关系。在所有热点以及热点对应的投影点上均显示热点图标,也就是说,在全景视频图像帧的画面上以及在透视图上均显示热点图标,热点图标中写有标注内容,标注内容为目标物的属性信息,标注内容可以是部分属性信息,也可以是全部属性信息。
进一步地,可以将透视图的投影点也配置为热点,用户可以在透视图上直接进行交互。
在步骤S102之后、步骤S103之前还可以包括如下步骤:
S1021,接收目标物的属性信息,该属性信息包括文字、图片、矢量图、音频、视频、网址链接中的一种或组合。
在步骤S104之后、步骤S105之前,还可以包括如下步骤:
S1041,创建该全景视频的标注图层,并在标注图层中存储该目标物的热点的球面坐标信息、与该热点对应的投影点的图像坐标信息以及目标物的标注内容,该标注内容包括目标物的部分或全部属性信息。
在步骤S105中,在播放全景视频中出现该目标物时,在标注图层中读取并在全景视频的热点处以及透视图的对应投影点处显示该目标物对应的标注内容。
本发明第二实施例提供了一种全景视频的热点交互方法,请参阅图3所示,该交互方法包括如下步骤:
S201,获取原始视频图像,对该原始视频图像进行拼接,以生成球面全景视频。
S202,利用球面重投影算法在以该全景视频的球心为视点的不同视线方向上对该全景视频进行重构,生成不同视线方向上的透视图。
S203,在该全景视频中接收对目标物的点选操作,将该点选操作对应的像素位置配置为热点,获取该热点的球面坐标信息,将该目标物的属性信息与该热点的球面坐标信息进行关联。
S204,获取该透视图上与该热点对应的投影点的图像坐标信息,将该投影点的图像坐标信息与该热点的球面坐标信息建立映射关系。
S205,将该目标物的部分或全部属性信息作为标注内容按照该热点的球面坐标信息以及该热点对应的投影点的图像坐标信息分别在该全景视频和该透视图中进行显示。
S206,利用WebGL加载该全景视频和该透视图,将该全景视频和该透视图作为纹理渲染到3D几何模型上。
步骤S201至步骤S205具体参见第一实施例。在步骤S206中,采用WebGL技术进行场景绘制和渲染,使全景视频可在浏览器或虚拟现实设备中使用。开发工具采用VS 2017和FFMpeg包,进行开发场景漫游和视频内容热点交互功能的实现。FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序库,它由一系列C函数和C++类所组成。请参阅图3所示,依次为(a)建筑物静态热点交互,(b)车辆动态热点交互,(c)行人动态热点交互。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种全景视频的热点交互方法,其特征在于,所述交互方法包括:
S1,获取原始视频图像,对所述原始视频图像进行拼接,以生成球面全景视频;
S2,利用球面重投影算法在以所述全景视频的球心为视点的不同视线方向上对所述全景视频进行重构,生成不同视线方向上的透视图;
S3,在所述全景视频中接收对目标物的点选操作,将所述点选操作对应的像素位置配置为热点,获取所述热点的球面坐标信息,将所述目标物的属性信息与所述热点的球面坐标信息进行关联;
S4,获取所述透视图上与所述热点对应的投影点的图像坐标信息,将所述投影点的图像坐标信息与所述热点的球面坐标信息建立映射关系;
S5,将所述目标物的部分或全部属性信息作为标注内容按照所述热点的球面坐标信息以及所述热点对应的投影点的图像坐标信息分别在所述全景视频和所述透视图中进行显示。
2.根据权利要求1所述的全景视频的热点交互方法,其特征在于,步骤S1包括:
S11,对视频流图像帧进行特征点提取;
S12,对所述图像帧进行特征点匹配,利用最小二乘法或随机抽样一致算法对所述特征点匹配中的误匹配点进行剔除;
S13,基于剔除误匹配点的特征点,建立图像帧的配准模型;
S14,根据所述配准模型在球体模型的三维球面上将图像帧进行配准,生成球面全景视频。
3.根据权利要求1所述的全景视频的热点交互方法,其特征在于,步骤S2包括:
S21,建立以所述全景视频的球心为原点的世界坐标系XYZ,将世界坐标系XYZ绕X轴旋转α度,得到相机坐标系xyz;
S22,根据原始视频图像的像素高度H及像素宽度W、和相机的焦距r,建立图像点在透视图中的二维图像坐标与所述图像点在相机坐标系xyz的对应坐标的转换关系;
S23,根据所述转换关系、以及世界坐标系XYZ与相机坐标系xyz的变换矩阵,建立全景视频中任意点投影到透视图的对应投影点的坐标转换关系,计算对应投影点在透视图上的二维图像坐标,生成不同视线方向上的透视图。
4.根据权利要求1所述的全景视频的热点交互方法,其特征在于,在步骤S3中,当所述目标物移动时,获取所述目标物在全景视频中首次出现的图像帧,在所述图像帧中接收对所述目标物的点选操作,将所述点选操作对应的像素位置配置为初始热点,获取所述初始热点的球面坐标信息,将所述目标物的属性信息与所述初始热点的球面坐标信息进行关联。
5.根据权利要求4所述的全景视频的热点交互方法,其特征在于,在步骤S3中还包括:
在所述图像帧中对所述目标物在上下左右四个方向放大X个像素,对放大区域进行特征提取,得到目标物的特征信息,其中,X为大于20且小于50的自然数;
继续播放全景视频,根据所述特征信息在全景视频的图像帧中进行目标物识别,将识别区域配置为后续热点,将所述目标物的属性信息与所述后续热点的球面坐标信息进行关联。
6.根据权利要求5所述的全景视频的热点交互方法,其特征在于,在步骤S4中,当所述目标物移动时,获取所述透视图上与所述初始热点及所述后续热点对应的投影点的图像坐标信息,将所述投影点的图像坐标信息与对应初始热点或后续热点的球面坐标信息建立映射关系。
7.根据权利要求1所述的全景视频的热点交互方法,其特征在于,所述交互方法还包括:
S6,利用WebGL加载所述全景视频和所述透视图,将所述全景视频和所述透视图作为纹理渲染到3D几何模型上。
8.根据权利要求1所述的全景视频的热点交互方法,其特征在于,所述交互方法还包括:
接收目标物的属性信息,所述属性信息包括文字、图片、音频、视频、网址链接中的一种或组合;
创建所述全景视频的标注图层,并在标注图层中存储所述目标物的热点的球面坐标信息、与所述热点对应的投影点的图像坐标信息以及目标物的标注内容,所述标注内容包括目标物的部分或全部属性信息。
9.根据权利要求8所述的全景视频的热点交互方法,其特征在于,步骤S5包括:
在播放全景视频中出现所述目标物时,在标注图层中读取并在全景视频的热点处以及透视图的对应投影点处显示所述目标物对应的标注内容。
10.根据权利要求1所述的全景视频的热点交互方法,其特征在于,在步骤S4中,将所述透视图上与所述热点对应的投影点配置为热点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910297415.2A CN110060201B (zh) | 2019-04-15 | 2019-04-15 | 一种全景视频的热点交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910297415.2A CN110060201B (zh) | 2019-04-15 | 2019-04-15 | 一种全景视频的热点交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110060201A CN110060201A (zh) | 2019-07-26 |
CN110060201B true CN110060201B (zh) | 2023-02-28 |
Family
ID=67317659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910297415.2A Active CN110060201B (zh) | 2019-04-15 | 2019-04-15 | 一种全景视频的热点交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110060201B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111107419B (zh) * | 2019-12-31 | 2021-03-02 | 福州大学 | 一种基于全景视频播放的标注多点即时添加方法 |
CN111091117B (zh) * | 2019-12-31 | 2021-01-29 | 北京城市网邻信息技术有限公司 | 用于二维全景图像的目标检测方法、装置、设备、介质 |
CN111093036A (zh) * | 2020-01-17 | 2020-05-01 | 福州大学 | 一种基于肢体识别的vr全景视频交互播放方法 |
CN117037844A (zh) * | 2023-10-10 | 2023-11-10 | 中国传媒大学 | 基于全景视频的全景音频生成方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082926A (zh) * | 2007-07-03 | 2007-12-05 | 浙江大学 | 一种用于跨媒体数字城市景区建模方法 |
WO2008020461A1 (en) * | 2006-08-17 | 2008-02-21 | Netnoe' S.R.L. | Method for acquiring, processing and presenting images and multimedia navigating system for performing such method |
WO2010052550A2 (en) * | 2008-11-05 | 2010-05-14 | Easywalk Capital S.A. | System and method for creating and broadcasting interactive panoramic walk-through applications |
CN101877139A (zh) * | 2009-04-30 | 2010-11-03 | 爱国者全景(北京)网络科技发展有限公司 | 一种实现三维视频全景空间热点的方法和系统 |
CN109063123A (zh) * | 2018-08-01 | 2018-12-21 | 深圳市城市公共安全技术研究院有限公司 | 全景视频的标注添加方法及系统 |
-
2019
- 2019-04-15 CN CN201910297415.2A patent/CN110060201B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008020461A1 (en) * | 2006-08-17 | 2008-02-21 | Netnoe' S.R.L. | Method for acquiring, processing and presenting images and multimedia navigating system for performing such method |
CN101082926A (zh) * | 2007-07-03 | 2007-12-05 | 浙江大学 | 一种用于跨媒体数字城市景区建模方法 |
WO2010052550A2 (en) * | 2008-11-05 | 2010-05-14 | Easywalk Capital S.A. | System and method for creating and broadcasting interactive panoramic walk-through applications |
CN101877139A (zh) * | 2009-04-30 | 2010-11-03 | 爱国者全景(北京)网络科技发展有限公司 | 一种实现三维视频全景空间热点的方法和系统 |
CN109063123A (zh) * | 2018-08-01 | 2018-12-21 | 深圳市城市公共安全技术研究院有限公司 | 全景视频的标注添加方法及系统 |
Non-Patent Citations (1)
Title |
---|
"Information Management and Target Searching in Massive Urban Video Based on Video-GIS";Wenqun Xiu et al;《 2018 8th International Conference on Electronics Information and Emergency Communication》;20180930;第228-232页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110060201A (zh) | 2019-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110060201B (zh) | 一种全景视频的热点交互方法 | |
Fernandez-Labrador et al. | Corners for layout: End-to-end layout recovery from 360 images | |
CN106875431B (zh) | 具有移动预测的图像追踪方法及扩增实境实现方法 | |
CN106127680B (zh) | 一种720度全景视频快速浏览方法 | |
CN112954292B (zh) | 一种基于增强现实的数字博物馆导览系统和方法 | |
CN109906600B (zh) | 模拟景深 | |
US11044398B2 (en) | Panoramic light field capture, processing, and display | |
JP2019532531A (ja) | パノラマ画像圧縮方法および装置 | |
US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
CN110874818A (zh) | 图像处理和虚拟空间构建方法、装置、系统和存储介质 | |
WO2019065536A1 (ja) | 再構成方法および再構成装置 | |
CN110580720A (zh) | 一种基于全景图的相机位姿估计方法 | |
CN107197135B (zh) | 一种视频生成方法及视频生成装置 | |
CN116109765A (zh) | 标注对象的三维渲染方法、装置、计算机设备、存储介质 | |
CN101060642B (zh) | 使用3d图形产生同屏显示的方法和设备 | |
CN110047035B (zh) | 全景视频热点交互系统及交互设备 | |
CN111161398A (zh) | 一种图像生成方法、装置、设备及存储介质 | |
CN104331241A (zh) | 一种全景互动移动终端展示系统及方法 | |
CN112288878B (zh) | 增强现实预览方法及预览装置、电子设备及存储介质 | |
CN113838116A (zh) | 确定目标视图的方法、装置、电子设备及存储介质 | |
CN112312041B (zh) | 基于拍摄的图像校正方法、装置、电子设备及存储介质 | |
CN114900743A (zh) | 基于视频推流的场景渲染过渡方法以及系统 | |
CN111669603B (zh) | 多角度自由视角数据处理方法及装置、介质、终端、设备 | |
CN112652056A (zh) | 一种3d信息展示方法及装置 | |
CN108986183B (zh) | 一种全景地图的制作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |