CN117152349A - 基于ar与大数据分析的虚拟场景自适应构建系统及方法 - Google Patents
基于ar与大数据分析的虚拟场景自适应构建系统及方法 Download PDFInfo
- Publication number
- CN117152349A CN117152349A CN202310972421.XA CN202310972421A CN117152349A CN 117152349 A CN117152349 A CN 117152349A CN 202310972421 A CN202310972421 A CN 202310972421A CN 117152349 A CN117152349 A CN 117152349A
- Authority
- CN
- China
- Prior art keywords
- model
- construction
- image
- similar
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 214
- 238000007405 data analysis Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims description 23
- 230000001174 ascending effect Effects 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 9
- 238000012098 association analyses Methods 0.000 claims description 3
- 238000010219 correlation analysis Methods 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及自适应管理技术领域,具体为基于AR与大数据分析的虚拟场景自适应构建系统及方法,包括:采集构建初始虚拟婚礼场景的所有空间模型数据、生成三维图像数据和构建的所有虚拟三维模型的影像序列;分析各三维图像的关联性进行归类;获取各三维图像的预计构建时长,确认模型占比和平均构建时长;分析任意同类模型是否存在连续的关联模型,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;根据构建困难程度对不同种类的模型进行升序,实时采集当前工作效率,根据工作效率变化幅值对目标虚拟婚礼场景的模型构建顺序进行自适应调整,有利于在减少虚拟场景构建错误的基础上提高构建效率。
Description
技术领域
本发明涉及自适应管理技术领域,具体为基于AR与大数据分析的虚拟场景自适应构建系统及方法。
背景技术
随着互联网技术的不断发展和普及,虚拟现实技术越来越受到人们的关注,在这个数字化时代,虚拟现实技术被应用到了各个领域,而在最近,虚拟现实技术甚至被运用到了结婚领域。虚拟婚礼不受地域的限制,可以让更多的人都参与其中,包括在不同城市、不同国家的亲友,甚至是早已逝去的亲人,可见,虚拟婚礼的发展是符合时代潮流的。
人们对虚拟婚礼的场景搭建会存在多种多样的需求,然而在进行智能构建的过程中,由于一些不可抗力因素导致系统的工作效率会发生一定变化,当工作效率低时,不仅会增加场景的构建时长和成本,还会增加场景构建的错误率。因此,如何根据用户需求在减少构建错误的基础上提高构建效率成为亟待解决的问题。
发明内容
本发明的目的在于提供基于AR与大数据分析的虚拟场景自适应构建系统及方法,以解决上述背景技术中提出的问题。
为了解决上述技术问题,本发明提供如下技术方案:基于AR与大数据分析的虚拟场景自适应构建方法,包括以下步骤:
步骤S100:采集构建初始虚拟婚礼场景的所有空间模型数据,形成初始模型集;根据目标用户对初始模型集的构建需求生成三维图像数据,形成三维图像集;采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列,形成影像集;
步骤S200:根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;将同类三维图像对应的空间模型设为同类模型,表示之后在同一时间对同类模型进行构建;获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式;
步骤S300:根据任意同类模型在历史数据中所有的构建影像进行捕捉,形成构建影像集;根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;
步骤S400:分析如何提高构建效率,进行构建顺序调整:根据任意同类模型的构建困难程度对不同种类的模型进行升序;实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对目标虚拟婚礼场景的模型构建顺序进行自适应调整。
进一步的,步骤S100包括:
步骤S110:利用摄像头采集现实婚礼场景信息,根据现实婚礼场景信息构建初始虚拟婚礼场景的三维模型;将初始虚拟婚礼场景等比例分为n个空间区块,其中空间区块的分配是可以改变的,可根据用户需求匹配的三维图像数据进行分割;则采集构建初始三维模型的所有空间模型,形成初始模型集A={a1,a2…,an},其中a1,a2…,an表示构成初始三维模型的第1,2,…,n个空间模型;
步骤S120:采集目标用户对初始模型集中各空间模型的构建需求,根据各空间模型的构建需求匹配网络大数据中的二维图像,并根据二维图像生成各空间模型的三维图像,形成三维图像集B={b1,b2,…,bn},其中b1,b2,…,bn表示根据目标用户的构建需求匹配出的第1,2,…,n个空间模型对应的三维图像特征,由三维图像集B构成目标虚拟场景;
步骤S130:将历史数据中以初始虚拟婚礼场景为原型构建的任意虚拟三维模型设为待定虚拟场景,则采集待定虚拟场景的影像序列,形成影像集C={c1,c2,…,cm},其中c1,c2,…,cm表示历史数据中第1,2,…,m个待定虚拟场景的影像序列。
进一步的,步骤S200包括:
步骤S210:将三维图像集B中任意三维图像设为目标图像bi,则根据关联性公式:λi=|bi∩bg|/|bi∪bg|,其中bg表示三维图像集B中除目标图像bi的其他图像,则得到目标图像和其他图像的关联性λi;对λi大于关联阈值α1的图像进行标识捕捉,得到同类模型Fi,则记录同类模型Fi中三维图像的数量为fi,并根据三维图像的数量确认模型占比为fi/n;获取同类模型Fi中各三维图像的预计构建时长,则根据三维图像的数量fi计算得到同类模型Fi的平均构建时长τi,有利于后续根据初始空间模型的状态进行时长分析;
步骤S220:对三维图像集B中所有的同类模型进行捕捉,形成集合F={F1,F2,…,Fs},则对s种同类模型进行排列组合,生成时间序列下s!种目标虚拟婚礼场景的模型构建方式;
通过分析三维图像的关联性,对三维图像进行归类,并对归类后的模型获取构建时长,有利于后续根据初始空间模型的状态进行时长分析,同时对不同类模型进行排列组合,生成时间序列下不同种类的模型构建顺序,有利于后续对所有空间模型的自适应构建。
进一步的,步骤S300包括:
步骤S310:空间模型的关联程度,历史中经常把不同的两块空间模型连接在一起构建:获取集合F中任意同类模型Fi,根据任意同类模型Fi中各三维图像匹配初始模型集A中对应的所有空间模型,形成空间模型集合Ai;将空间模型集合Ai中任意空间模型设为目标模型ae,则根据影像集C对目标模型ae在历史数据中所有的构建影像进行捕捉,得到构建影像集S={s1,s2,…,sm},其中s1,s2,…,sm表示历史数据中目标模型ae的第1,2,…,m个构建影像;根据影像集C匹配构建影像集S中各构建影像的相邻影像,则对各相邻影像对应的空间模型进行捕捉,获取捕捉到相同空间模型的次数最多时对应的空间模型,并确认捕捉次数为ke和所述空间模型对应的关联模型类别为Fg,根据捕捉次数ke得到连续性占比为(ue*ke)/m;其中ue表示目标模型ae和关联模型类别Fg的影响因子;
步骤S320:为了分析是否存在模型连续性,遍历空间模型集合Ai,根据步骤S310分别获取空间模型集合Ai中各空间模型的关联模型类别和相应的捕捉次数,并依次获取关联模型类别为Fg的空间模型和相应的捕捉次数,得到空间模型数量xi和相应的捕捉次数集K={k1,k2,…,k(xi)},进一步得到任意同类模型Fi和关联模型Fg的连续概率:
γ=(xi/fi)*[u1*k1+u2*k2+…+u(xi)*k(xi)]/m;
其中u1,u2,…,u(xi)均表示模型影响因子;当连续概率γ大于连续阈值δ时,表示任意同类模型Fi存在连续的关联模型类别Fg;
步骤S330:获取空间模型集合Ai中目标模型ae对应的构建影像集S,将构建影像集S中任意构建影像设为目标影像sj,其中j=1,2,…,m,则对目标影像的影像时长tj和目标影像生成前系统自动分析的预计构建时长pj进行捕捉,确认时长对比为tj/pj;遍历空间模型集合Ai,得到任意同类模型Fi的构建容错率其中e=1,2,…,fi表示任意同类模型Fi中第1,2,…,fi个空间模型,σ表示模型构建影响度,由初始三维模型中各空间模型的影响度决定;其中构建容错率产生的原因是由于空间模型中某种不可逆原因导致构建的时长比预计时长增加数倍;
步骤S340:获取任意同类模型Fi中所有三维图像对应的空间模型数量fi、平均构建时长τi和构建容错率ρi,得到任意同类模型Fi的构建困难程度其中/>表示集合F中所有同类模型的平均构建时长和;
通过分析空间模型的连续性,其中连续性表示根据不同用户需求产生的空间模型的构建顺序不变,分析空间模型初始状态时构建容错率,根据三维图像的数量、平均构建时长和空间模型初始状态时构建容错率分析所有同类模型的构建难易程度,有利于后续对虚拟场景的自适应构建。
进一步的,步骤S400包括:
步骤S410:根据任意同类模型Fi的构建困难程度ri,得到集合F中s种同类模型的构建困难程度,并根据困难程度大小对s种同类模型进行升序,得到新的集合
*F={*F1,*F2,…,*Fs};根据历史数据获取系统的工作效率变化幅值h1~h2,根据集合F中s种同类模型对工作效率变化幅值h1~h2等比例划分为s个区间,形成区间集合{z1,z2,…,zs},其中z1=h1~[h1+(h2-h1)/s],zs=[h2-(h2-h1)/s]~h2;
步骤S420:实时获取当前系统的工作效率v,判断工作效率v所属区间为zv,则在前时间段内对同类模型*Fv进行虚拟构建,进一步分析根据步骤S300分析同类模型*Fv是否存在连续的关联模型,若存在,则在下一个时间段内对相应的关联模型进行虚拟构建,反之,若不存在,则再次根据工作效率对同类模型的虚拟构建进行选择,直至目标虚拟婚礼场景构建完成;
通过根据不同种类模型的构建困难程度对空间模型进行升序,并根据系统的工作效率变化对不同种类的模型构建顺序进行自适应调整,有利于在减少构建错误的基础上提高构建效率。
虚拟场景自适应构建系统,系统包括:数据采集模块、数据库、图像处理模块、历史分析模块和自适应构建模块;
通过所述数据采集模块采集构建初始虚拟婚礼场景的所有空间模型数据,形成初始模型集;根据目标用户对初始模型集的构建需求生成三维图像数据,形成三维图像集;采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列,形成影像集;
通过所述数据库对所有采集的数据进行存储;
通过所述图像处理模块根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;将同类三维图像对应的空间模型设为同类模型,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式;
通过所述历史分析模块根据任意同类模型在历史数据中所有的构建影像进行捕捉,形成构建影像集;根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;
通过所述自适应构建模块根据任意同类模型的构建困难程度对不同种类的模型进行升序;实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对不同种类的模型构建顺序进行自适应调整。
进一步的,数据采集模块包括初始模型采集单元、图像采集单元和影像采集单元;
所述初始模型采集单元用于采集构建初始三维模型的所有空间模型数据;所述图像采集单元用于根据目标用户对初始模型集的构建需求生成三维图像数据;所述影像采集单元用于采集历史数据中以初始三维模型为原型构建的所有虚拟三维模型的影像序列。
进一步的,图像处理模块包括图像归类单元、时长分析单元和顺序排列单元;
所述图像归类单元用于根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;所述时长分析单元用于将同类三维图像对应的空间模型设为同类模型,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;所述顺序排列单元用于对不同类模型进行排列组合,生成时间序列下不同种类的模型构建顺序。
进一步的,历史分析单元包括影像捕捉单元、关联分析单元和困难程度分析单元;
所述影像捕捉单元用于根据任意同类模型在历史数据中所有的构建影像进行捕捉;所述关联分析单元用于根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;所述困难程度分析单元用于将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度。
进一步的,自适应构建模块包括模型排序单元和自适应构建单元;
所述模型排序单元用于根据任意同类模型的构建困难程度对不同种类的模型进行升序;所述自适应构建单元用于实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对不同种类的模型构建顺序进行自适应调整。
与现有技术相比,本发明所达到的有益效果是:
本发明通过分析空间模型初始状态时构建容错率,根据三维图像的数量、平均构建时长和空间模型初始状态时构建容错率分析所有同类模型的构建难易程度,有利于后续对虚拟场景的自适应构建;通过根据不同种类模型的构建困难程度对空间模型进行升序,并根据系统的工作效率变化对不同种类的模型构建顺序进行自适应调整,有利于在减少构建错误的基础上提高构建效率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明基于AR与大数据分析的虚拟场景自适应构建系统的结构图;
图2是本发明基于AR与大数据分析的虚拟场景自适应构建方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供技术方案:虚拟场景自适应构建系统,系统包括:数据采集模块、数据库、图像处理模块、历史分析模块和自适应构建模块;
通过所述数据采集模块采集构建初始虚拟婚礼场景的所有空间模型数据,形成初始模型集;根据目标用户对初始模型集的构建需求生成三维图像数据,形成三维图像集;采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列,形成影像集;
数据采集模块包括初始模型采集单元、图像采集单元和影像采集单元;
所述初始模型采集单元用于采集构建初始三维模型的所有空间模型数据;所述图像采集单元用于根据目标用户对初始模型集的构建需求生成三维图像数据;所述影像采集单元用于采集历史数据中以初始三维模型为原型构建的所有虚拟三维模型的影像序列。
通过所述数据库对所有采集的数据进行存储;
通过所述图像处理模块根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;将同类三维图像对应的空间模型设为同类模型,其中同类模型表示之后在同一时间对同类模型进行构建,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式;
图像处理模块包括图像归类单元、时长分析单元和顺序排列单元;
所述图像归类单元用于根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;所述时长分析单元用于将同类三维图像对应的空间模型设为同类模型,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;所述顺序排列单元用于对不同类模型进行排列组合,生成时间序列下不同种类的模型构建顺序。
通过所述历史分析模块根据任意同类模型在历史数据中所有的构建影像进行捕捉,形成构建影像集;根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;
历史分析单元包括影像捕捉单元、关联分析单元和困难程度分析单元;
所述影像捕捉单元用于根据任意同类模型在历史数据中所有的构建影像进行捕捉;所述关联分析单元用于根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;所述困难程度分析单元用于将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度。
通过所述自适应构建模块根据任意同类模型的构建困难程度对不同种类的模型进行升序;实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对不同种类的模型构建顺序进行自适应调整。
自适应构建模块包括模型排序单元和自适应构建单元;
所述模型排序单元用于根据任意同类模型的构建困难程度对不同种类的模型进行升序;所述自适应构建单元用于实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对不同种类的模型构建顺序进行自适应调整。
请参阅图2,本发明提供技术方案:基于AR与大数据分析的虚拟场景自适应构建方法,包括以下步骤:
步骤S100:采集构建初始虚拟婚礼场景的所有空间模型数据,形成初始模型集;根据目标用户对初始模型集的构建需求生成三维图像数据,形成三维图像集;采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列,形成影像集;
步骤S100包括:
步骤S110:利用摄像头采集现实婚礼场景信息,根据现实婚礼场景信息构建初始虚拟婚礼场景的三维模型;将初始虚拟婚礼场景等比例分为n个空间区块,其中空间区块的分配是可以改变的,可根据用户需求匹配的三维图像数据进行分割;则采集构建初始三维模型的所有空间模型,形成初始模型集A={a1,a2…,an},其中a1,a2…,an表示构成初始三维模型的第1,2,…,n个空间模型;
步骤S120:采集目标用户对初始模型集中各空间模型的构建需求,根据各空间模型的构建需求匹配网络大数据中的二维图像,并根据二维图像生成各空间模型的三维图像,形成三维图像集B={b1,b2,…,bn},其中b1,b2,…,bn表示根据目标用户的构建需求匹配出的第1,2,…,n个空间模型对应的三维图像特征,由三维图像集B构成目标虚拟场景;
步骤S130:将历史数据中以初始虚拟婚礼场景为原型构建的任意虚拟三维模型设为待定虚拟场景,则采集待定虚拟场景的影像序列,形成影像集C={c1,c2,…,cm},其中c1,c2,…,cm表示历史数据中第1,2,…,m个待定虚拟场景的影像序列。
步骤S200:根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;将同类三维图像对应的空间模型设为同类模型,表示之后在同一时间对同类模型进行构建;获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式;
步骤S200包括:
步骤S210:将三维图像集B中任意三维图像设为目标图像bi,则根据关联性公式:λi=|bi∩bg|/|bi∪bg|,其中bg表示三维图像集B中除目标图像bi的其他图像,则得到目标图像和其他图像的关联性λi;对λi大于关联阈值α1的图像进行标识捕捉,得到同类模型Fi,则记录同类模型Fi中三维图像的数量为fi,并根据三维图像的数量确认模型占比为fi/n;获取同类模型Fi中各三维图像的预计构建时长,则根据三维图像的数量fi计算得到同类模型Fi的平均构建时长τi,有利于后续根据初始空间模型的状态进行时长分析;
步骤S220:对三维图像集B中所有的同类模型进行捕捉,形成集合F={F1,F2,…,Fs},则对s种同类模型进行排列组合,生成时间序列下s!种目标虚拟婚礼场景的模型构建方式。
步骤S300:根据任意同类模型在历史数据中所有的构建影像进行捕捉,形成构建影像集;根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;
步骤S300包括:
步骤S310:空间模型的关联程度,历史中经常把不同的两块空间模型连接在一起构建:获取集合F中任意同类模型Fi,根据任意同类模型Fi中各三维图像匹配初始模型集A中对应的所有空间模型,形成空间模型集合Ai;将空间模型集合Ai中任意空间模型设为目标模型ae,则根据影像集C对目标模型ae在历史数据中所有的构建影像进行捕捉,得到构建影像集S={s1,s2,…,sm},其中s1,s2,…,sm表示历史数据中目标模型ae的第1,2,…,m个构建影像;根据影像集C匹配构建影像集S中各构建影像的相邻影像,则对各相邻影像对应的空间模型进行捕捉,获取捕捉到相同空间模型的次数最多时对应的空间模型,并确认捕捉次数为ke和所述空间模型对应的关联模型类别为Fg,根据捕捉次数ke得到连续性占比为(ue*ke)/m;其中ue表示目标模型ae和关联模型类别Fg的影响因子;
步骤S320:为了分析是否存在模型连续性,遍历空间模型集合Ai,根据步骤S310分别获取空间模型集合Ai中各空间模型的关联模型类别和相应的捕捉次数,并依次获取关联模型类别为Fg的空间模型和相应的捕捉次数,得到空间模型数量xi和相应的捕捉次数集K={k1,k2,…,k(xi)},进一步得到任意同类模型Fi和关联模型Fg的连续概率:
γ=(xi/fi)*[u1*k1+u2*k2+…+u(xi)*k(xi)]/m;
其中u1,u2,…,u(xi)均表示模型影响因子;当连续概率γ大于连续阈值δ时,表示任意同类模型Fi存在连续的关联模型类别Fg;
步骤S330:获取空间模型集合Ai中目标模型ae对应的构建影像集S,将构建影像集S中任意构建影像设为目标影像sj,其中j=1,2,…,m,则对目标影像的影像时长tj和目标影像生成前系统自动分析的预计构建时长pj进行捕捉,确认时长对比为tj/pj;遍历空间模型集合Ai,得到任意同类模型Fi的构建容错率其中e=1,2,…,fi表示任意同类模型Fi中第1,2,…,fi个空间模型,σ表示模型构建影响度,由初始三维模型中各空间模型的影响度决定;其中构建容错率产生的原因是由于空间模型中某种不可逆原因导致构建的时长比预计时长增加数倍;
步骤S340:获取任意同类模型Fi中所有三维图像对应的空间模型数量fi、平均构建时长τi和构建容错率ρi,得到任意同类模型Fi的构建困难程度其中/>表示集合F中所有同类模型的平均构建时长和。
步骤S400:分析如何提高构建效率,进行构建顺序调整:根据任意同类模型的构建困难程度对不同种类的模型进行升序;实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对目标虚拟婚礼场景的模型构建顺序进行自适应调整。
步骤S400包括:
步骤S410:根据任意同类模型Fi的构建困难程度ri,得到集合F中s种同类模型的构建困难程度,并根据困难程度大小对s种同类模型进行升序,得到新的集合
*F={*F1,*F2,…,*Fs};根据历史数据获取系统的工作效率变化幅值h1~h2,根据集合F中s种同类模型对工作效率变化幅值h1~h2等比例划分为s个区间,形成区间集合
{z1,z2,…,zs},其中z1=h1~[h1+(h2-h1)/s],zs=[h2-(h2-h1)/s]~h2;
步骤S420:实时获取当前系统的工作效率v,判断工作效率v所属区间为zv,则在前时间段内对同类模型*Fv进行虚拟构建,进一步分析根据步骤S300分析同类模型*Fv是否存在连续的关联模型,若存在,则在下一个时间段内对相应的关联模型进行虚拟构建,反之,若不存在,则再次根据工作效率对同类模型的虚拟构建进行选择,直至目标虚拟婚礼场景构建完成。
例如:步骤S100包括:
步骤S110:利用摄像头采集现实婚礼场景信息,根据现实婚礼场景信息构建初始虚拟婚礼场景的三维模型;将初始虚拟婚礼场景等比例分为30个空间区块,其中空间区块的分配是可以改变的,可根据用户需求匹配的三维图像数据进行分割;则采集构建初始三维模型的所有空间模型,形成初始模型集A={a1,a2…,a30},其中a1,a2…,a30表示构成初始三维模型的第1,2,…,30个空间模型;
步骤S120:采集目标用户对初始模型集中各空间模型的构建需求,根据各空间模型的构建需求匹配网络大数据中的二维图像,并根据二维图像生成各空间模型的三维图像,形成三维图像集B={b1,b2,…,b30},其中b1,b2,…,b30表示根据目标用户的构建需求匹配出的第1,2,…,30个空间模型对应的三维图像特征,由三维图像集B构成目标虚拟场景;
步骤S130:将历史数据中以初始三维模型为原型构建的任意虚拟三维模型设为待定虚拟场景,则采集待定虚拟场景的影像序列,形成影像集C={c1,c2,…,c100},其中c1,c2,…,c100表示历史数据中第1,2,…,100个待定虚拟场景的影像序列。
步骤S200包括:
步骤S210:将三维图像集B中任意三维图像设为目标图像bi,以b3为例,
则根据关联性公式:λ3=|b3∩bg|/|b3∪bg|,其中bg表示三维图像集B中除目标图像bi的其他图像,则得到目标图像和其他图像的关联性λ3;对λ3大于关联阈值α1=0.85的图像进行标识捕捉,得到同类模型F3,则记录同类模型F3中三维图像的数量为f3=3,并根据三维图像的数量确认模型占比为3/30=0.1;获取同类模型F3中各三维图像的预计构建时长,则根据三维图像的数量3计算得到同类模型F3的平均构建时长τ3=3h;
步骤S220:对三维图像集B中所有的同类模型进行捕捉,形成集合F={F1,F2,…,F20},则对20种同类模型进行排列组合,生成时间序列下20!种目标虚拟婚礼场景的模型构建方式。
步骤S300包括:
步骤S310:获取集合F中任意同类模型F3,根据任意同类模型F3中各三维图像匹配初始模型集A中对应的所有空间模型,形成空间模型集合A3;将空间模型集合A3中任意空间模型设为目标模型ae,以a10为例:
则根据影像集C对目标模型a10在历史数据中所有的构建影像进行捕捉,得到构建影像集S={s1,s2,…,s100},其中s1,s2,…,s100表示历史数据中目标模型a10的第1,2,…,100个构建影像;根据影像集C匹配构建影像集S中各构建影像的相邻影像,则对各相邻影像对应的空间模型进行捕捉,获取捕捉到相同空间模型的次数最多时对应的空间模型,并确认捕捉次数为k=10和所述空间模型对应的关联模型类别为F5,根据捕捉次数k=10得到连续性占比为(u10*10)/100;其中u10表示目标模型a10和关联模型类别F5的影响因子;
步骤S320:为了分析是否存在模型连续性,遍历空间模型集合A3,根据步骤S310分别获取空间模型集合A3中各空间模型的关联模型类别和相应的捕捉次数,并依次获取关联模型类别为F5的空间模型和相应的捕捉次数,得到空间模型数量x3=2和相应的捕捉次数集K={k1=10,k2=10},进一步得到任意同类模型Fi和关联模型Fg的连续概率:
γ=(2/3)*[u1*10+u2*10]/100;
其中u1,u2,均表示模型影响因子;当连续概率γ大于连续阈值δ=0.6时,表示任意同类模型Fi存在连续的关联模型类别F5;
步骤S330:获取空间模型集合A3中目标模型a10对应的构建影像集S,将构建影像集S中任意构建影像设为目标影像sj,其中j=1,2,…,100,则对目标影像的影像时长tj和目标影像生成前系统自动分析的预计构建时长pj进行捕捉,确认时长对比为tj/pj;遍历空间模型集合Ai,得到任意同类模型Fi的构建容错率其中e=1,2,3表示任意同类模型Fi中第1,2,3个空间模型,σ表示模型构建影响度,由初始三维模型中各空间模型的影响度决定;
步骤S340:获取任意同类模型F3中所有三维图像对应的空间模型数量、平均构建时长和构建容错率ρi,得到任意同类模型Fi的构建困难程度其中表示集合F中所有同类模型的平均构建时长和。
进一步的,步骤S400包括:
步骤S410:根据任意同类模型Fi的构建困难程度ri,得到集合F中20种同类模型的构建困难程度,并根据困难程度大小对20种同类模型进行升序,得到新的集合
*F={*F1,*F2,…,*F20};根据历史数据获取系统的工作效率变化幅值h1~h2,根据集合F中20种同类模型对工作效率变化幅值h1~h2等比例划分为20个区间,形成区间集合{z1,z2,…,z20},其中z1=h1~[h1+(h2-h1)/s],zs=[h2-(h2-h1)/s]~h2;
步骤S420:实时获取当前系统的工作效率v,判断工作效率v所属区间为zv,则在前时间段内对同类模型*Fv进行虚拟构建,进一步分析根据步骤S300分析同类模型*Fv是否存在连续的关联模型,若存在,则在下一个时间段内对相应的关联模型进行虚拟构建,反之,若不存在,则再次根据工作效率对同类模型的虚拟构建进行选择,直至目标虚拟婚礼场景构建完成;
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.基于AR与大数据分析的虚拟场景自适应构建方法,其特征在于:包括以下步骤:
步骤S100:采集构建初始虚拟婚礼场景的所有空间模型数据,形成初始模型集;根据目标用户对初始模型集的构建需求生成三维图像数据,形成三维图像集;采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列,形成影像集;
步骤S200:根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;将同类三维图像对应的空间模型设为同类模型,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式;
步骤S300:根据任意同类模型在历史数据中所有的构建影像进行捕捉,形成构建影像集;根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;
步骤S400:根据任意同类模型的构建困难程度对不同种类的模型进行升序;实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对目标虚拟婚礼场景的模型构建顺序进行自适应调整。
2.根据权利要求1所述的基于AR与大数据分析的虚拟场景自适应构建方法,其特征在于:所述步骤S100包括:
步骤S110:利用摄像头采集现实婚礼场景信息,根据现实婚礼场景信息构建初始虚拟婚礼场景的三维模型;将初始虚拟婚礼场景等比例分为n个空间区块,则采集构建初始三维模型的所有空间模型,形成初始模型集A;
步骤S120:采集目标用户对初始模型集A中各空间模型的构建需求,根据各空间模型的构建需求匹配网络大数据中的二维图像,并根据二维图像生成各空间模型的三维图像,形成三维图像集B={b1,b2,…,bn},其中b1,b2,…,bn表示根据目标用户的构建需求匹配出的第1,2,…,n个空间模型对应的三维图像特征;
步骤S130:将历史数据中以初始虚拟婚礼场景为原型构建的任意虚拟三维模型设为待定虚拟场景,则采集待定虚拟场景的影像序列,形成影像集C={c1,c2,…,cm},其中c1,c2,…,cm表示历史数据中第1,2,…,m个待定虚拟场景的影像序列。
3.根据权利要求2所述的基于AR与大数据分析的虚拟场景自适应构建方法,其特征在于:所述步骤S200包括:
步骤S210:将三维图像集B中任意三维图像设为目标图像bi,则根据关联性公式:λi=|bi∩bg|/|bi∪bg|,其中bg表示三维图像集B中除目标图像bi的其他图像,则得到目标图像和其他图像的关联性λi;对λi大于关联阈值α1的图像进行标识捕捉,得到同类模型Fi,则记录同类模型Fi中三维图像的数量为fi,并根据三维图像的数量确认模型占比为fi/n;获取同类模型Fi中各三维图像的预计构建时长,则根据三维图像的数量fi计算得到同类模型Fi的平均构建时长τi;
步骤S220:对三维图像集B中所有的同类模型进行捕捉,形成集合F={F1,F2,…,Fs},则对s种同类模型进行排列组合,生成时间序列下s!种目标虚拟婚礼场景的模型构建方式。
4.根据权利要求3所述的基于AR与大数据分析的虚拟场景自适应构建方法,其特征在于:所述步骤S300包括:
步骤S310:获取集合F中任意同类模型Fi,根据任意同类模型Fi中各三维图像匹配初始模型集A中对应的所有空间模型,形成空间模型集合Ai;将空间模型集合Ai中任意空间模型设为目标模型ae,则根据影像集C对目标模型ae在历史数据中所有的构建影像进行捕捉,得到构建影像集S={s1,s2,…,sm},其中s1,s2,…,sm表示历史数据中目标模型ae的第1,2,…,m个构建影像;根据影像集C匹配构建影像集S中各构建影像的相邻影像,则对各相邻影像对应的空间模型进行捕捉,获取捕捉到相同空间模型的次数最多时对应的空间模型,并确认捕捉次数为ke和所述空间模型对应的关联模型类别为Fg,根据捕捉次数ke得到连续性占比为(ue*ke)/m;其中ue表示目标模型ae和关联模型类别Fg的影响因子;
步骤S320:遍历空间模型集合Ai,根据步骤S310分别获取空间模型集合Ai中各空间模型的关联模型类别和相应的捕捉次数,并依次获取关联模型类别为Fg的空间模型和相应的捕捉次数,得到空间模型数量xi和相应的捕捉次数集K={k1,k2,…,k(xi)},进一步得到任意同类模型Fi和关联模型Fg的连续概率:
γ=(xi/fi)*[u1*k1+u2*k2+…+u(xi)*k(xi)]/m;
其中u1,u2,…,u(xi)均表示模型影响因子;当连续概率γ大于连续阈值δ时,表示任意同类模型Fi存在连续的关联模型类别Fg;
步骤S330:获取空间模型集合Ai中目标模型ae对应的构建影像集S,将构建影像集S中任意构建影像设为目标影像sj,其中j=1,2,…,m,则对目标影像的影像时长tj和目标影像生成前系统自动分析的预计构建时长pj进行捕捉,确认时长对比为tj/pj;遍历空间模型集合Ai,得到任意同类模型Fi的构建容错率其中e=1,2,…,fi表示任意同类模型Fi中第1,2,…,fi个空间模型,σ表示模型构建影响度;
步骤S340:获取任意同类模型Fi中所有三维图像对应的空间模型数量fi、平均构建时长τi和构建容错率ρi,得到任意同类模型Fi的构建困难程度其中表示集合F中所有同类模型的平均构建时长和。
5.根据权利要求4所述的基于AR与大数据分析的虚拟场景自适应构建方法,其特征在于:所述步骤S400包括:
步骤S410:根据任意同类模型Fi的构建困难程度ri,得到集合F中s种同类模型的构建困难程度,并根据困难程度大小对s种同类模型进行升序,得到新的集合
*F={*F1,*F2,…,*Fs};根据历史数据获取系统的工作效率变化幅值h1~h2,根据集合F中s种同类模型对工作效率变化幅值h1~h2等比例划分为s个区间,形成区间集合{z1,z2,…,zs},其中z1=h1~[h1+(h2-h1)/s],zs=[h2-(h2-h1)/s]~h2;
步骤S420:实时获取当前系统的工作效率v,判断工作效率v所属区间为zv,则在前时间段内对同类模型*Fv进行虚拟构建,进一步分析根据步骤S300分析同类模型*Fv是否存在连续的关联模型,若存在,则在下一个时间段内对相应的关联模型进行虚拟构建,反之,若不存在,则再次根据工作效率对同类模型的虚拟构建进行选择,直至目标虚拟婚礼场景构建完成。
6.用于实现权利要求1-5中任一项所述的基于AR与大数据分析的虚拟场景自适应构建方法的虚拟场景自适应构建系统,其特征在于:所述系统包括:数据采集模块、数据库、图像处理模块、历史分析模块和自适应构建模块;
通过所述数据采集模块采集构建初始虚拟婚礼场景的所有空间模型数据,形成初始模型集;根据目标用户对初始模型集的构建需求生成三维图像数据,形成三维图像集;采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列,形成影像集;
通过所述数据库对所有采集的数据进行存储;
通过所述图像处理模块根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;将同类三维图像对应的空间模型设为同类模型,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式;
通过所述历史分析模块根据任意同类模型在历史数据中所有的构建影像进行捕捉,形成构建影像集;根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度;
通过所述自适应构建模块根据任意同类模型的构建困难程度对不同种类的模型进行升序;实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对目标虚拟婚礼场景的模型构建顺序进行自适应调整。
7.根据权利要求6所述的虚拟场景自适应构建系统,其特征在于:所述数据采集模块包括初始模型采集单元、图像采集单元和影像采集单元;
所述初始模型采集单元用于采集初始虚拟婚礼场景的所有空间模型数据;所述图像采集单元用于根据目标用户对初始模型集的构建需求生成三维图像数据;所述影像采集单元用于采集历史数据中以初始虚拟婚礼场景为原型构建的所有虚拟三维模型的影像序列。
8.根据权利要求6所述的虚拟场景自适应构建系统,其特征在于:所述图像处理模块包括图像归类单元、时长分析单元和顺序排列单元;
所述图像归类单元用于根据三维图像集分析各三维图像的关联性,并对三维图像进行归类;所述时长分析单元用于将同类三维图像对应的空间模型设为同类模型,获取同类模型中各三维图像的预计构建时长,并根据同类模型的数量确认模型占比和平均构建时长;所述顺序排列单元用于对不同类模型进行排列组合,生成目标虚拟婚礼场景的不同模型构建方式。
9.根据权利要求6所述的虚拟场景自适应构建系统,其特征在于:所述历史分析单元包括影像捕捉单元、关联分析单元和困难程度分析单元;
所述影像捕捉单元用于根据任意同类模型在历史数据中所有的构建影像进行捕捉;所述关联分析单元用于根据影像集匹配构建影像集中各构建影像的相邻影像,分析任意同类模型是否存在连续的关联模型;所述困难程度分析单元用于将同类模型中任意空间模型的影像时长和影像生成前系统自动分析的预计构建时长进行比较,分析任意同类模型的构建容错率,进一步分析任意同类模型的构建困难程度。
10.根据权利要求6所述的虚拟场景自适应构建系统,其特征在于:所述自适应构建模块包括模型排序单元和自适应构建单元;
所述模型排序单元用于根据任意同类模型的构建困难程度对不同种类的模型进行升序;所述自适应构建单元用于实时采集当前工作效率,根据历史数据中系统的工作效率变化幅值对目标虚拟婚礼场景的模型构建顺序进行自适应调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310972421.XA CN117152349B (zh) | 2023-08-03 | 2023-08-03 | 基于ar与大数据分析的虚拟场景自适应构建系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310972421.XA CN117152349B (zh) | 2023-08-03 | 2023-08-03 | 基于ar与大数据分析的虚拟场景自适应构建系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117152349A true CN117152349A (zh) | 2023-12-01 |
CN117152349B CN117152349B (zh) | 2024-02-23 |
Family
ID=88885824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310972421.XA Active CN117152349B (zh) | 2023-08-03 | 2023-08-03 | 基于ar与大数据分析的虚拟场景自适应构建系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152349B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010029553A1 (en) * | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
CN105844714A (zh) * | 2016-04-12 | 2016-08-10 | 广州凡拓数字创意科技股份有限公司 | 基于增强现实的场景显示方法及系统 |
WO2018058601A1 (zh) * | 2016-09-30 | 2018-04-05 | 深圳达闼科技控股有限公司 | 虚拟与现实融合方法、系统和虚拟现实设备 |
CN108038917A (zh) * | 2017-12-27 | 2018-05-15 | 上海市地下空间设计研究总院有限公司 | 基于mr或ar技术的目标观察方法及巡检系统 |
CN109840947A (zh) * | 2017-11-28 | 2019-06-04 | 广州腾讯科技有限公司 | 增强现实场景的实现方法、装置、设备及存储介质 |
WO2020098462A1 (zh) * | 2018-11-16 | 2020-05-22 | Oppo广东移动通信有限公司 | Ar虚拟人物绘制方法、装置、移动终端及存储介质 |
CN111638793A (zh) * | 2020-06-04 | 2020-09-08 | 浙江商汤科技开发有限公司 | 飞行器的展示方法、装置、电子设备及存储介质 |
CN114549744A (zh) * | 2022-01-24 | 2022-05-27 | 聚好看科技股份有限公司 | 一种构建虚拟三维会议场景的方法、服务器和ar设备 |
CN114972584A (zh) * | 2022-06-22 | 2022-08-30 | 猫小兜动漫影视(深圳)有限公司 | 一种三维动漫的多维度模型构建方法、系统、设备和产品 |
CN116310186A (zh) * | 2023-05-10 | 2023-06-23 | 深圳智筱视觉科技有限公司 | 一种基于地理位置的ar虚拟空间定位方法 |
CN116310062A (zh) * | 2021-12-08 | 2023-06-23 | 中国电信国际有限公司 | 三维场景构建方法及装置、存储介质及电子设备 |
CN116503577A (zh) * | 2023-04-07 | 2023-07-28 | 广州南方卫星导航仪器有限公司 | 一种虚拟仿真场景三维模型快速采集方法及系统 |
-
2023
- 2023-08-03 CN CN202310972421.XA patent/CN117152349B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010029553A1 (en) * | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
CN105844714A (zh) * | 2016-04-12 | 2016-08-10 | 广州凡拓数字创意科技股份有限公司 | 基于增强现实的场景显示方法及系统 |
WO2018058601A1 (zh) * | 2016-09-30 | 2018-04-05 | 深圳达闼科技控股有限公司 | 虚拟与现实融合方法、系统和虚拟现实设备 |
CN109840947A (zh) * | 2017-11-28 | 2019-06-04 | 广州腾讯科技有限公司 | 增强现实场景的实现方法、装置、设备及存储介质 |
CN108038917A (zh) * | 2017-12-27 | 2018-05-15 | 上海市地下空间设计研究总院有限公司 | 基于mr或ar技术的目标观察方法及巡检系统 |
WO2020098462A1 (zh) * | 2018-11-16 | 2020-05-22 | Oppo广东移动通信有限公司 | Ar虚拟人物绘制方法、装置、移动终端及存储介质 |
CN111638793A (zh) * | 2020-06-04 | 2020-09-08 | 浙江商汤科技开发有限公司 | 飞行器的展示方法、装置、电子设备及存储介质 |
CN116310062A (zh) * | 2021-12-08 | 2023-06-23 | 中国电信国际有限公司 | 三维场景构建方法及装置、存储介质及电子设备 |
CN114549744A (zh) * | 2022-01-24 | 2022-05-27 | 聚好看科技股份有限公司 | 一种构建虚拟三维会议场景的方法、服务器和ar设备 |
CN114972584A (zh) * | 2022-06-22 | 2022-08-30 | 猫小兜动漫影视(深圳)有限公司 | 一种三维动漫的多维度模型构建方法、系统、设备和产品 |
CN116503577A (zh) * | 2023-04-07 | 2023-07-28 | 广州南方卫星导航仪器有限公司 | 一种虚拟仿真场景三维模型快速采集方法及系统 |
CN116310186A (zh) * | 2023-05-10 | 2023-06-23 | 深圳智筱视觉科技有限公司 | 一种基于地理位置的ar虚拟空间定位方法 |
Non-Patent Citations (2)
Title |
---|
何琳;: "虚拟生态博物馆:生态博物馆资料中心建设的新途径", 贵州民族研究, no. 02, pages 51 - 55 * |
袁淑娟;高秀芬;: "基于图像精确过分割的虚拟现实场景构建", 计算机工程与设计, no. 17, pages 4044 - 4046 * |
Also Published As
Publication number | Publication date |
---|---|
CN117152349B (zh) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886090B (zh) | 一种基于多时间尺度卷积神经网络的视频行人再识别方法 | |
Chen et al. | Graph-based global reasoning networks | |
US9092699B2 (en) | Method for searching for objects in video data received from a fixed camera | |
US20080059872A1 (en) | Video annotation method by integrating visual features and frequent patterns | |
EP1982294A2 (en) | Apparatus and method for image labelling | |
CN110363293A (zh) | 神经网络模型的训练、延时摄影视频的生成方法及设备 | |
CN109902681B (zh) | 用户群体关系确定方法、装置、设备及存储介质 | |
CN108447064A (zh) | 一种图片处理方法及装置 | |
Nasreen et al. | Key frame extraction and foreground modelling using k-means clustering | |
CN112261448A (zh) | 视频播放时长的确定方法、装置、设备及介质 | |
CN112383824A (zh) | 视频广告过滤方法、设备及存储介质 | |
CN117152349B (zh) | 基于ar与大数据分析的虚拟场景自适应构建系统及方法 | |
CN109862313B (zh) | 一种视频浓缩方法及装置 | |
CN113988148A (zh) | 一种数据聚类的方法、系统、计算机设备和存储介质 | |
CN113626670B (zh) | 基于时空关系的对象聚类方法、装置和电子设备 | |
CN114283356B (zh) | 一种移动图像的采集分析系统及方法 | |
CN112257666B (zh) | 目标图像内容的聚合方法、装置、设备及可读存储介质 | |
CN115391596A (zh) | 视频档案生成方法、装置及存储介质 | |
CN114821748A (zh) | 人脸识别方法、装置、电子设备及计算机存储介质 | |
CN114333065A (zh) | 一种应用于监控视频的行为识别方法、系统及相关装置 | |
CN115114467A (zh) | 图片神经网络模型的训练方法以及装置 | |
Lopez-Cifuentes et al. | Automatic semantic parsing of the ground plane in scenarios recorded with multiple moving cameras | |
Ratnarajah et al. | Forensic Video Analytic Software | |
US8200598B1 (en) | Video demultiplexing based on meaningful modes extraction | |
Neri et al. | Unsupervised video orchestration based on aesthetic features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |