CN113868465A - 一种基于二维时间格网的可定位视频检索方法 - Google Patents

一种基于二维时间格网的可定位视频检索方法 Download PDF

Info

Publication number
CN113868465A
CN113868465A CN202111081865.1A CN202111081865A CN113868465A CN 113868465 A CN113868465 A CN 113868465A CN 202111081865 A CN202111081865 A CN 202111081865A CN 113868465 A CN113868465 A CN 113868465A
Authority
CN
China
Prior art keywords
video
time
locatable
space
number information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111081865.1A
Other languages
English (en)
Other versions
CN113868465B (zh
Inventor
韩志刚
崔彩辉
许俊奎
宋宏权
刘锋
刘春�
孔云峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202111081865.1A priority Critical patent/CN113868465B/zh
Publication of CN113868465A publication Critical patent/CN113868465A/zh
Application granted granted Critical
Publication of CN113868465B publication Critical patent/CN113868465B/zh
Priority to US17/944,344 priority patent/US11681753B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location

Abstract

本发明提供一种基于二维时间格网的可定位视频检索方法。该方法包括:根据所有可定位视频片段中的最早开始时间Ts、最晚结束时间Te以及时间分辨率,结合每个可定位视频片段的开始时间与结束时间,计算每个可定位视频片段的行列号信息,得到二维时间格网;根据每个可定位视频片段在二维时间格网中的行列号信息,为每个可定位视频片段生成其对应的空间点,最终得到空间点集P;利用R树空间索引方法生成空间点集P对应的R树空间索引结构;根据可定位视频检索条件定义的开始时间和结束时间定位到二维时间格网中的对应时间栅格,根据该时间栅格的行列号信息生成对应的空间点,在R树空间索引结构中查找得到该空间点,即得到该空间点对应的可定位视频。

Description

一种基于二维时间格网的可定位视频检索方法
技术领域
本发明涉及地理信息和视频检索技术领域,尤其涉及一种基于二维时间格网的可定位视频检索方法,可用于海量可定位视频数据管理及分析领域。
背景技术
当前,公共安全成为各级政府关注的焦点问题之一;建设针对公共空间的视频监控系统,成为保障公共安全、威慑犯罪行为的关键环节。随着我国平安城市的不断推进,全国各地均积累了海量的视频数据;这些视频均为包含拍摄时段与空间位置的可定位视频。如何高效检索相应时间的可定位视频数据,成为大规模监控视频管理与分析的基础性问题。可定位视频是包含时空信息的视频,目前其检索方式主要包括下述三种:基于空间位置的检索、基于时间信息的检索以及基于语义标签的检索。基于空间位置的检索主要依据视频拍摄位置或视频场景位置,应用空间关系谓词进行判断;基于时间信息的检索主要依据视频拍摄时刻或时段进行检索;基于语义标签的检索主要是结合视频内容进行标注,定义相应标签文本进行视频检索。其中,目前基于时间信息的检索存在以下问题:(1)主要采用时间戳进行直接比较,由于时间戳数据类型的复杂性导致检索效率低下;(2)主要采用一维时间线方式,应用绝对时间进行判断,未能充分利用二维空间语义进行可定位视频的时间信息检索;(3) 检索方式单一,缺少图形化的基于时间的视频检索操作方法。
发明内容
为了解决上述的目前基于时间信息的可定位视频检索方法所存在的至少部分问题,本发明主要针对基于时间信息的可定位视频检索进行改进,提供了一种基于二维时间格网的可定位视频检索方法,通过定义二维时间格网能够实现可定位视频高效查询与检索。
本发明提供的一种基于二维时间格网的可定位视频检索方法,包括:
步骤1:根据所有可定位视频片段中的最早开始时间Ts、最晚结束时间Te以及时间分辨率,结合每个可定位视频片段的开始时间与结束时间,计算每个可定位视频片段的行列号信息,从而将一维连续的时间区间信息按照相应的时间分辨率映射到二维栅格空间得到二维时间格网;
步骤2:根据每个可定位视频片段在二维时间格网中的行列号信息,为每个可定位视频片段生成其对应的空间点,最终所有可定位视频片段的空间点构成空间点集P;
步骤3:利用R树空间索引方法生成空间点集P对应的R树空间索引结构;
步骤4:根据可定位视频检索条件定义的开始时间和结束时间定位到二维时间格网中的对应时间栅格,根据该时间栅格的行列号信息生成对应的空间点,在已生成的R树空间索引结构中查找得到该空间点,即得到该空间点对应的可定位视频。
进一步地,步骤1中,所述计算每个可定位视频片段的行列号信息,具体包括:
步骤A1:利用公式(1)计算第k个可定位视频片段在时间分辨率ct下的原始列号信息u与行号信息v:
Figure BDA0003264277800000021
其中,
Figure BDA0003264277800000022
Figure BDA0003264277800000023
分别表示第k个可定位视频片段的开始时间和结束时间,Ts分别表示所有可定位视频片段中的最早开始时间,
Figure BDA0003264277800000024
k=1,2,3…,K,K表示可定位视频片段的总个数;
步骤A2:将原始行列号信息表示为矢量形式(u,v,1),然后按照预设规则计算得到可定位视频片段在二维时间格网中的新列号信息j和新行号信息i;
其中,所述预设规则具体为:
当1≤u<(N+1)/2,1<v≤(N+1)/2时,则j=u,i=v;
当u>v+(N+1)/2,1≤u≤(N+1)/2,(N+1)/2<v≤N时,利用公式 (2)将矢量(u,v,1)转换为(j,i,1):
Figure BDA0003264277800000025
当(N+1)/2<v≤u+(N+1)/2≤N,1≤u≤(N+1)/2时,利用公式(3) 将矢量(u,v,1)转换为(j,i,1):
Figure BDA0003264277800000031
当(N+1)/2<u≤N,(N+1)/2≤v≤N时,利用公式(4)将矢量(u,v,1) 转换为(j,i,1):
Figure BDA0003264277800000032
其中,N表示二维时间格网的列,N=(Te-Ts-ct)/ct,Te分别表示所有视频片段中的最晚结束时间,
Figure BDA0003264277800000033
进一步地,步骤2中,所述为每个可定位视频片段生成其对应的空间点具体包括:
将第k个可定位视频片段在二维时间格网中的列号信息j作为x,将第k个可定位视频片段在二维时间格网中的行号信息i作为y,从而生成第k个可定位视频片段的空间点pk(x,y),k=1,2,3…,K,K表示可定位视频片段的总个数。
进一步地,步骤3中具体包括:
对空间点集P所处空间范围进行分割,划分为多个矩形区域,将每个矩形称作目录矩形并作为树结构的中间节点,然后将各空间点按照空间位置分配到不同矩形区域内,生成相应中间节点的子节点。
进一步地,步骤4中,所述在已生成的R树空间索引结构中查找得到该空间点具体包括:首先搜索满足查询条件的目录矩形并定位到相应中间节点;然后搜索该中间节点的下级子节点,以查找满足检索条件的空间点对象。
本发明的有益效果:
(1)本发明应用二维栅格行列值描述可定位视频拍摄的起始时间与结束时间,基于整型数据类型进行处理,降低了时间信息运算复杂度;
(2)本发明在二维图形空间上进行时间信息检索与时间信息操作,突破了传统以一维时间轴与时间戳为主的时间信息检索方式;
(3)通过按照本发明的方法进行可定位视频检索与查询,测试结果显示本发明能够显著提升查询效率,降低查询响应时间。
附图说明
图1为本发明实施例提供的一种基于二维时间格网的可定位视频检索方法的流程示意图;
图2为本发明实施例提供的二维时间格网的示意图;
图3为本发明实施例提供的可定位视频片段的空间点对象的生成示意图;
图4为本发明实施例提供的R树空间索引结构的生成示意图;
图5为本发明实施例提供的基于二维时间格网的可定位视频检索过程示意图;
图6为本发明实施例提供的可定位视频检索效率测试结果示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供一种基于二维时间格网的可定位视频检索方法,包括以下步骤:
S101:根据所有可定位视频片段中的最早开始时间Ts、最晚结束时间Te以及时间分辨率,结合每个可定位视频片段的开始时间与结束时间,计算每个可定位视频片段的行列号信息,从而将一维连续的时间区间信息按照相应的时间分辨率映射到二维栅格空间得到二维时间格网;
具体地,本步骤主要是结合时间分辨率及时间范围,基于栅格结构定义二维时间格网。
一般而言,利用摄像机或智能手机拍摄的视频片段,均拍摄于特定时刻并具备一定的拍摄时长,其时间间隔可以表示为[ts,te],其中ts和te分别为视频片段的开始时间和结束时间,设定第k个视频片段的开始时间和结束时间分别为
Figure BDA0003264277800000041
Figure BDA0003264277800000042
Figure BDA0003264277800000043
作为一种可实施方式,计算第k个可定位视频片段的行列号信息,具体包括:
步骤A1:利用公式(1)计算第k个可定位视频片段在时间分辨率ct下的原始列号信息u与行号信息v:
Figure BDA0003264277800000044
其中,
Figure BDA0003264277800000051
Figure BDA0003264277800000052
分别表示第k个可定位视频片段的开始时间和结束时间,Ts分别表示所有可定位视频片段中的最早开始时间,
Figure BDA0003264277800000053
k=1,2,3…,K,K表示可定位视频片段的总个数;时间分辨率可以用小时、分钟、秒或其他不同时长来衡量。
步骤A2:将原始行列号信息表示为矢量形式(u,v,1),然后按照预设规则计算得到可定位视频片段在二维时间格网中的新列号信息j和新行号信息i;
其中,所述预设规则具体为:
当1≤u<(N+1)/2,1<v≤(N+1)/2时,则j=u,i=v;
当u>v+(N+1)/2,1≤u≤(N+1)/2,(N+1)/2<v≤N时,利用公式 (2)将矢量(u,v,1)转换为(j,i,1):
Figure BDA0003264277800000054
当(N+1)/2<v≤u+(N+1)/2≤N,1≤u≤(N+1)/2时,利用公式(3) 将矢量(u,v,1)转换为(j,i,1):
Figure BDA0003264277800000055
当(N+1)/2<u≤N,(N+1)/2≤v≤N时,利用公式(4)将矢量(u,v,1) 转换为(j,i,1):
Figure BDA0003264277800000056
其中,N表示二维时间格网的列,N=(Te-Ts-ct)/ct,Te分别表示所有视频片段中的最晚结束时间,
Figure BDA0003264277800000057
按照上述步骤计算得到所有可定位视频片段的行列号信息,最终可以得到一个M行N列的二维时间格网,其中,M=(N+1)/2。
从上述实施方式中可以看出:二维时间格网由若干个时间栅格组成,每个时间栅格的位置信息表示对应的可定位视频片段的时段信息;如图2所示,二维时间格网的列信息表示可定位视频片段的开始时间,二维时间格网的行信息表示可定位视频片段的结束时间,每个时间栅格可以用于存储可定位视频片段标识码 ID。仍以图2为例,假定第k个可定位视频片段位于二维时间格网的第i行、第j列,其时间栅格为Ck(j,i),其时间语义定义如下:
(1)在R1子区域,即当1≤j<M,1<i≤M,j<i时,单元格(j,i)的时间语义为开始于j、终止于i。
(2)在R2子区域,即当M<j≤N,1≤i<M,j≥i+M时,单元格(j,i)的时间语义为开始于i时刻、终止于j+1时刻。
(3)在R3子区域,即当M<j≤N,1<i≤M,j<i+M时,单元格(j,i)的时间语义为开始于j时刻、终止于i+M时刻。
(4)在R4子区域,即当1≤j≤M,1≤i≤M,j≥i时,单元格(j,i)的时间语义为开始于j时刻、终止于i+M时刻。
S102:根据每个可定位视频片段在二维时间格网中的行列号信息,为每个可定位视频片段生成其对应的空间点,最终所有可定位视频片段的空间点构成空间点集P;
作为一种可实施方式,如图3所示,所述为每个可定位视频片段生成其对应的空间点具体包括:将第k个可定位视频片段在二维时间格网中的列号信息j作为x,将第k个可定位视频片段在二维时间格网中的行号信息i作为y,从而生成第k个可定位视频片段的空间点pk(x,y),k=1,2,3…,K,K表示可定位视频片段的总个数。
S103:利用R树空间索引方法生成空间点集P对应的R树空间索引结构;
作为一种可实施方式,本步骤具体包括:对空间点集P所处空间范围进行分割,划分为多个矩形区域,将每个矩形称作目录矩形并作为树结构的中间节点,然后将各空间点按照空间位置分配到不同矩形区域内,生成相应中间节点的子节点。如图4所示。
S104:根据可定位视频检索条件定义的开始时间和结束时间定位到二维时间格网中的对应时间栅格,根据该时间栅格的行列号信息生成对应的空间点,在已生成的R树空间索引结构中查找得到该空间点,即得到该空间点对应的可定位视频。
作为一种可实施方式,所述在已生成的R树空间索引结构中查找得到该空间点具体包括:首先搜索满足查询条件的目录矩形并定位到相应中间节点;然后搜索该中间节点的下级子节点,以查找满足检索条件的空间点对象。如图5所示,点q为定义的时间检索条件,根据R树索引,点q位于目录矩形内,符合条件的视频片段仅可能存在于目录矩形R2,从而仅与R2下级子节点gv7,gv8,gv9 进行比较,进而提高了检索效率。
本发明结合海量视频检索需求,从二维格网的角度,结合可定位视频的拍摄开始时间与结束时间,按照相应的时间分辨率定义二维时间格网,采用格网单元的行列信息表达可定位视频时间信息,并将格网单元转换为空间点对象,应用空间索引方法构建基于二维时间格网的时间索引,能够以图形化的方式进行基于时间的可定位视频查询,降低了可定位视频时间信息处理复杂度,显著提升了查询效率。
为了测试本发明提供的可定位视频检索方法的检索效率,本发明还提供有下述实验数据。
按照本发明提供的可定位视频检索方法,应用从10万到100万条记录的6 个可定位视频数据集,对其检索的响应时间进行了测试,并与传统基于时间戳的 B树索引的检索方法进行了比较。如图6所示,在不同数据量的情况下,基于二维时间格网的可定位视频检索方法均能显著提升检索效率,其中,在80万条记录时提升幅度最大,缩短响应时间43.34毫秒。尽管随着数据量的增加,检索效率略有下降,但在100万条记录时仍缩短响应时间29.62毫秒。在实际应用中,如采用缓存大小优化等查询优化方法,将进一步提升检索效率。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (5)

1.一种基于二维时间格网的可定位视频检索方法,其特征在于,包括:
步骤1:根据所有可定位视频片段中的最早开始时间Ts、最晚结束时间Te以及时间分辨率,结合每个可定位视频片段的开始时间与结束时间,计算每个可定位视频片段的行列号信息,从而将一维连续的时间区间信息按照相应的时间分辨率映射到二维栅格空间得到二维时间格网;
步骤2:根据每个可定位视频片段在二维时间格网中的行列号信息,为每个可定位视频片段生成其对应的空间点,最终所有可定位视频片段的空间点构成空间点集P;
步骤3:利用R树空间索引方法生成空间点集P对应的R树空间索引结构;
步骤4:根据可定位视频检索条件定义的开始时间和结束时间,将其定位到二维时间格网中的对应时间栅格,根据相关时间栅格的行列号信息生成对应的空间点,在已生成的R树空间索引结构中查找得到该空间点,即得到该空间点对应的可定位视频。
2.根据权利要求1所述的一种基于二维时间格网的可定位视频检索方法,其特征在于,步骤1中,所述计算每个可定位视频片段的行列号信息,具体包括:
步骤A1:利用公式(1)计算第k个可定位视频片段在时间分辨率ct下的原始列号信息u与行号信息v:
Figure FDA0003264277790000011
其中,
Figure FDA0003264277790000012
Figure FDA0003264277790000013
分别表示第k个可定位视频片段的开始时间和结束时间,Ts分别表示所有可定位视频片段中的最早开始时间,
Figure FDA0003264277790000014
K表示可定位视频片段的总个数;
步骤A2:将原始行列号信息表示为矢量形式(u,v,1),然后按照预设规则计算得到可定位视频片段在二维时间格网中的新列号信息j和新行号信息i;
其中,所述预设规则具体为:
当1≤u<(N+1)/2,1<v≤(N+1)/2时,则j=u,i=v;
当u>v+(N+1)/2,1≤u≤(N+1)/2,(N+1)/2<v≤N时,利用公式(2)将矢量(u,v,1)转换为(j,i,1):
Figure FDA0003264277790000021
当(N+1)/2<v≤u+(N+1)/2≤N,1≤u≤(N+1)/2时,利用公式(3)将矢量(u,v,1)转换为(j,i,1):
Figure FDA0003264277790000022
当(N+1)/2<u≤N,(N+1)/2≤v≤N时,利用公式(4)将矢量(u,v,1)转换为(j,i,1):
Figure FDA0003264277790000023
其中,N表示二维时间格网的列,N=(Te-Ts-ct)/ct,Te分别表示所有视频片段中的最晚结束时间,
Figure FDA0003264277790000024
3.根据权利要求1所述的一种基于二维时间格网的可定位视频检索方法,其特征在于,步骤2中,所述为每个可定位视频片段生成其对应的空间点具体包括:
将第k个可定位视频片段在二维时间格网中的列号信息j作为x,将第k个可定位视频片段在二维时间格网中的行号信息i作为y,从而生成第k个可定位视频片段的空间点pk(x,y),k=1,2,3…,K,K表示可定位视频片段的总个数。
4.根据权利要求1所述的一种基于二维时间格网的可定位视频检索方法,其特征在于,步骤3中具体包括:
对空间点集P所处空间范围进行分割,划分为多个矩形区域,将每个矩形称作目录矩形并作为树结构的中间节点,然后将各空间点按照空间位置分配到不同矩形区域内,生成相应中间节点的子节点。
5.根据权利要求4所述的一种基于二维时间格网的可定位视频检索方法,其特征在于,步骤4中,所述在已生成的R树空间索引结构中查找得到该空间点具体包括:首先搜索满足查询条件的目录矩形并定位到相应中间节点;然后搜索该中间节点的下级子节点,以查找满足检索条件的空间点对象。
CN202111081865.1A 2021-09-15 2021-09-15 一种基于二维时间格网的可定位视频检索方法 Active CN113868465B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111081865.1A CN113868465B (zh) 2021-09-15 2021-09-15 一种基于二维时间格网的可定位视频检索方法
US17/944,344 US11681753B2 (en) 2021-09-15 2022-09-14 Geotagged video spatial indexing method based on temporal information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111081865.1A CN113868465B (zh) 2021-09-15 2021-09-15 一种基于二维时间格网的可定位视频检索方法

Publications (2)

Publication Number Publication Date
CN113868465A true CN113868465A (zh) 2021-12-31
CN113868465B CN113868465B (zh) 2022-05-17

Family

ID=78996088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111081865.1A Active CN113868465B (zh) 2021-09-15 2021-09-15 一种基于二维时间格网的可定位视频检索方法

Country Status (2)

Country Link
US (1) US11681753B2 (zh)
CN (1) CN113868465B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630191A (zh) * 2022-12-22 2023-01-20 成都纵横自动化技术股份有限公司 基于全动态视频的时空数据集检索方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1420595A1 (en) * 2002-11-18 2004-05-19 STMicroelectronics Asia Pacific Pte Ltd. Motion vector selection in a video motion estimator based on a preferred reference point
CN101021857A (zh) * 2006-10-20 2007-08-22 鲍东山 基于内容分析的视频搜索系统
CN101719144A (zh) * 2009-11-04 2010-06-02 中国科学院声学研究所 一种联合字幕和视频图像信息进行场景分割和索引的方法
CN104616243A (zh) * 2015-01-20 2015-05-13 北京大学 一种高效的gpu三维视频融合绘制方法
CN109359617A (zh) * 2018-10-30 2019-02-19 西北大学 一种基于格网降雨数据的识别暴雨的方法
CN110659385A (zh) * 2019-09-12 2020-01-07 中国测绘科学研究院 一种多路视频与三维gis场景的融合方法
CN112364201A (zh) * 2021-01-13 2021-02-12 北京电信易通信息技术股份有限公司 一种视频数据检索方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2531876C2 (ru) * 2012-05-15 2014-10-27 Общество с ограниченной ответственностью "Синезис" Способ индексирования видеоданных при помощи карты
CN104750708B (zh) * 2013-12-27 2018-09-28 华为技术有限公司 一种时空数据的索引建立方法、查询方法、装置及设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1420595A1 (en) * 2002-11-18 2004-05-19 STMicroelectronics Asia Pacific Pte Ltd. Motion vector selection in a video motion estimator based on a preferred reference point
CN101021857A (zh) * 2006-10-20 2007-08-22 鲍东山 基于内容分析的视频搜索系统
CN101719144A (zh) * 2009-11-04 2010-06-02 中国科学院声学研究所 一种联合字幕和视频图像信息进行场景分割和索引的方法
CN104616243A (zh) * 2015-01-20 2015-05-13 北京大学 一种高效的gpu三维视频融合绘制方法
CN109359617A (zh) * 2018-10-30 2019-02-19 西北大学 一种基于格网降雨数据的识别暴雨的方法
CN110659385A (zh) * 2019-09-12 2020-01-07 中国测绘科学研究院 一种多路视频与三维gis场景的融合方法
CN112364201A (zh) * 2021-01-13 2021-02-12 北京电信易通信息技术股份有限公司 一种视频数据检索方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
徐爱萍等: "HBase中基于时空特征的监测视频大数据关联查询研究", 《计算机应用研究》 *
童为民等: "可定位媒体库构建及其在影像解译中的辅助应用", 《亚热带资源与环境学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630191A (zh) * 2022-12-22 2023-01-20 成都纵横自动化技术股份有限公司 基于全动态视频的时空数据集检索方法、装置及存储介质

Also Published As

Publication number Publication date
US20230079719A1 (en) 2023-03-16
US11681753B2 (en) 2023-06-20
CN113868465B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN109165215B (zh) 一种云环境下时空索引的构建方法、装置及电子设备
CN103020281B (zh) 一种基于空间数据数值索引的数据存储与检索方法
CN111209261B (zh) 基于信令大数据的用户出行轨迹提取方法和系统
CN107590250A (zh) 一种时空轨迹生成方法及装置
Wang et al. A flexible spatio-temporal indexing scheme for large-scale GPS track retrieval
CN111639092B (zh) 一种人员流动分析方法、装置、电子设备及存储介质
CN106649656A (zh) 一种面向数据库的时空轨迹大数据存储方法
CN113568995B (zh) 基于检索条件的动态瓦片地图制作方法及瓦片地图系统
CN105354247A (zh) 一种支持存算联动的地理视频数据组织管理方法
Ding et al. A hybrid search engine framework for the internet of things based on spatial-temporal, value-based, and keyword-based conditions
CN106407429A (zh) 文件追踪方法、装置及系统
CN113868465B (zh) 一种基于二维时间格网的可定位视频检索方法
CN102193995B (zh) 一种建立多媒体数据索引、检索的方法及装置
CN102156739A (zh) 海量闪电数据的gis平台处理方法
CN111046081A (zh) 一种工业时序数据的访问方法及系统
CN107341198B (zh) 一种基于主题实例的电力海量数据存储和查询方法
CN105095224A (zh) 一种在移动通信网络中进行olap分析的方法、装置和系统
CN106354846A (zh) 基于大数据的新闻智能选稿方法及系统
CN109918468A (zh) 基于墨卡托投影的物联网设备位置数据区域筛选方法
CN110928868B (zh) 车辆数据检索方法、装置及计算机可读存储介质
Akasapu et al. Efficient trajectory pattern mining for both sparse and dense dataset
CN117558056B (zh) 一种基于人脸图像的伴随关系识别方法及系统
CN112528056A (zh) 双索引现场数据检索系统及方法
CN115344659B (zh) 海量轨迹大数据的处理方法及系统、存储介质、电子设备
CN113626446B (zh) 数据存储和查找方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant