CN109920035A - 一种基于移动设备增强现实的动态特效合成方法 - Google Patents

一种基于移动设备增强现实的动态特效合成方法 Download PDF

Info

Publication number
CN109920035A
CN109920035A CN201910053211.4A CN201910053211A CN109920035A CN 109920035 A CN109920035 A CN 109920035A CN 201910053211 A CN201910053211 A CN 201910053211A CN 109920035 A CN109920035 A CN 109920035A
Authority
CN
China
Prior art keywords
dynamic
special efficacy
augmented reality
field
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910053211.4A
Other languages
English (en)
Other versions
CN109920035B (zh
Inventor
朱利丰
刘希婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910053211.4A priority Critical patent/CN109920035B/zh
Publication of CN109920035A publication Critical patent/CN109920035A/zh
Application granted granted Critical
Publication of CN109920035B publication Critical patent/CN109920035B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于移动设备增强现实的动态特效合成方法,对真实世界中的图像标记进行操作交互,将图像标记转化为虚拟世界中的元素及速度场,并进行了合成运动等操作,生成动态特效并叠加绘制至移动设备显示屏上。本发明允许用户在增强现实环境里直接对图像或物体标记进行移动操作,以实时地生成与场景视频一致的三维动态特效,无需离线后期处理,大大提高动态特效合成效率;允许用户以控制动态速度场的方式间接地控制虚拟元素的运动,相比直接控制虚拟元素的位置,用户可以对动态特效中元素的运动模式进行更灵活的编辑,除了改变位置外还能产生虚拟元素的朝向运动。

Description

一种基于移动设备增强现实的动态特效合成方法
技术领域
本发明涉及增强现实技术领域,尤其是一种在移动设备上的增强现实中合成动态特效的交互与计算方法。
背景技术
动态特效是视频特效的一种,可以为视频添加诸如泡沫、飘叶、颗粒等不同的视觉效果。传统的视频动态特效合成大多是离线生成的,通过对录制好的视频进行单元划分跟踪,再将调整渲染好的来自粒子系统或物理仿真的特效视频进行逐帧调整叠加至原始视频上,此类方法必须离线进行且比较耗时耗人力。近年也出现了一些基于草绘界面的动态特效合成方法,此类方法多用于二维情形,直接将草绘界面推广到三维场景中仍然需要大量的交互。现有移动设备增强现实中的动态特效一般先使用专业动画软件事先制作好含动态效果的场景,再将场景绑定到增强现实跟踪的标记上,可以控制事先生成好的场景的位置,但此类方案只能控制动态特效的整体位置,无法对动态特效进行灵活的局部控制。
发明内容
发明目的:为了解决现有技术存在的问题,实现交互式三维动态特效在线实时的合成及控制,提高动态特效的合成效率,本发明提供一种基于移动设备增强现实的动态特效合成方法。
技术方案:一种基于移动设备增强现实的动态特效合成方法,包括以下步骤:
(1)引入图像标记,图像标记包括控制标记和发射标记,控制标记指用于控制动态特效运动特性的图像标记,发射标记指用于产生动态特效中虚拟元素的图像标记;
(2)对控制标记跟踪,将所跟踪的控制标记的图像位置信息映射成单元速度场,每个控制标记对应为虚拟世界中的一个单元速度场;将单元速度场注册到增强现实系统中,并将所有的单元速度场合成为全局的动态速度场;
对发射标记跟踪,在所跟踪的发射标记上随机生成虚拟元素,通过调整发射标记的姿态控制虚拟元素的生成位置;
(3)通过动态速度场控制虚拟元素的运动;
(4)获得运动的虚拟元素后,调用移动设备增强现实的显示模块,将运动的虚拟元素与拍摄到的真实场景叠加绘制在移动设备显示屏上,形成增强现实效果。
进一步的,步骤(2)中,将所跟踪的第i个控制标记的图像平面位置信息Ii=(oi,ni,li,mi)映射成单元速度场vi,其中oi为所跟踪的控制标记的中心位置,ni为所跟踪控制标记的图像的平面法向量,li、mi分别为图像平面矩形的长向量和宽向量。
进一步的,步骤(2)中,单元速度场为源速度场、吸收速度场、涡流速度场、均匀速度场中的一种或几种。
进一步的,步骤(2)中,在动态速度场中,将空间任一点p的速度定义为:
其中vi(p)为p点在第i个单元速度场下的速度值,wi(p)为p点处第i个单元速度场的影响权重。
进一步的,所有的单元速度场的影响权重均设置为1。
进一步的,单元速度场的影响权重与点p到中心位置oi的距离成反比。
进一步的,步骤(2)中,将一个发射标记同时绑定一个单元速度场。
进一步的,步骤(3)通过动态速度场控制虚拟元素的运动的方法为:若虚拟元素为一个粒子,使用显示欧拉积分或四阶龙格库塔法,将动态速度场中的虚拟元素进行位置积分,获得运动的虚拟元素。
进一步的,步骤(3)结合动态速度场控制虚拟元素的运动的方法为:若虚拟元素为一个实体模型,计算实体模型的惯性张量I;使用惯性坐标系同惯性张量椭球的交点作为实体模型的采样点;根据各采样点处在动态速度场中的速度计算各采样点处的角动量并求和获得实体模型的近似角动量L;求解实体模型角速度ω=I-1L;获得角速度后,对实体模型角速度进行显示欧拉积分,获得模型在动态速度场下的朝向。
进一步的,步骤(2)中,控制标记的图像平面位置通过调用ARKit、ARCore或ARToolKit增强现实平台中的图像跟踪函数获得。
本发明提出了一种基于移动设备增强现实的动态特效合成方法,存在以下优点:1、允许用户在增强现实环境里直接对图像或物体标记进行移动操作,以实时地生成与场景视频一致的三维动态特效,无需离线后期处理,大大提高动态特效合成效率;
2、允许用户以控制动态速度场的方式间接地控制虚拟元素的运动,相比直接控制虚拟元素的位置,用户可以对动态特效中元素的运动模式进行更灵活的编辑,除了改变位置外还能产生虚拟元素的朝向运动。
附图说明
图1为本发明的系统流程示意图;
图2(a)为本发明的图像标记生成示意图;
图2(b)为源速度场的生成示意图;
图2(c)为涡流速度场的生成示意图;
图2(d)为均匀速度场的生成示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
基于移动设备增强现实的动态特效合成方法包括以下步骤:
(1)首先引入图像标记的概念,图像标记包括控制标记和发射标记,控制标记指用于控制动态特效运动特性的图像标记,发射标记指用于产生动态特效中虚拟元素的图像标记。
(2)如图1所示,用户对真实世界中的图像标记进行操作交互,增强现实系统将图像标记转化为虚拟世界中的虚拟元素及单元速度场,具体包括以下步骤:
(a)通过单元速度场交互控制模块实现单元速度场的生成。如图1右侧,对真实世界的控制标记进行操作交互,调用诸如ARKit或、ARCore或ARToolKit等增强现实平台中的图像跟踪函数获得控制标记的图像平面位置信息。每个控制标记对应为虚拟世界中的一个单元速度场,即将第i个控制标记的图像平面位置信息Ii=(oi,ni,li,mi)映射成单元速度场vi,其中oi为所跟踪的控制标记的中心位置,ni为所跟踪控制标记的图像的平面法向量,li、mi分别为图像平面矩形的长向量和宽向量。
图2给出了由控制标记的图像平面位置信息生成单元速度场的一些映射示例。图2(a)为控制标记的图像平面位置信息,图2(b)所示,为根据图像平面位置信息生成的源速度场vi (source)(p),将源速度场的速度方向进行反转即为吸收速度场;图2(c)给出了涡流速度场的计算示意;图2(d)为均匀速度场的定义。此四类速度场也可用以下计算公式描述:
实施中,我们也可以将以上单元速度场进行加权组合,以对应于某个图像标记,如vi(p)=0.5*vi (source)(p)+0.5*vi (uniform)(p);我们也可以定义均匀速度场的方向为控制标记的法向,vi (uniform)(p)=ni。不限于以上常见的单元速度场,任何可将图像平面位置信息Ii唯一映射到的速度场定义,都可以作为控制标记对应的单元速度场,用户可以根据需要给增强现实系统注册这些对应信息。
(b)通过动态速度场生成模块将单元速度场vi合成为一个全局的动态速度场v。如图1右侧所示,用户移动控制标记获得运动着的单元速度场,进而合成出动态的速度场。使用带权加和的方式进行计算,空间任意一点p处的速度定义为:
其中vi(p)为p点在第i个单元速度场下的速度值,wi(p)为该点处第i个单元速度场的影响权重。此权重可以均匀设置为1,使得各个单元速度场的控制强度一样;也可以定义为归一化后的p到oi的距离的反比,使得p点受到距离它更近的单元速度场的影响更大。由于各个单元速度场是随时间变化的图像位置信息的函数,所合成出的速度场也是一个动态的速度场。
(c)将一些图像标记注册为虚拟元素发射标记,通过虚拟元素生成模块在所跟踪的发射标记上随机生成一定数量的虚拟元素,此类虚拟元素将在动态速度场的影响下产生运动,形成动态特效。同时,虚拟元素的形状、生命期、产生频率等其他属性也在注册阶段定义。所生成的虚拟元素可以在所标记的图像位置Ii处出现,也可以用户定义函数X(Ii)确定虚拟元素产生的位置。用户通过调整此类图像标记的姿态以控制虚拟元素的生成位置。一个控制虚拟元素生成的发射标记也可以同时绑定一个单位速度场控制模块,以达成生成虚拟元素的同时使之产生运动的效果。使用将发射标记绑定源速度场或沿着图像标记法向的均匀速度场,或是这两种速度场的加权平均可以取得更好的视觉效果。
(3)如图1所示,在虚拟世界虚拟元素运动模块结合动态速度场产生虚拟元素的运动。此模块中,若虚拟元素为一个粒子,使用显示欧拉积分或四阶龙格库塔法,将速度场中的元素进行位置积分,以获得运动的虚拟元素。若虚拟元素为一个实体模型,还可以对模型的朝向进行运动,使用一个简化的刚体运动模型,首先计算实体模型的惯性张量I,使用惯性坐标系同惯性张量椭球的交点作为模型的采样点,之后根据各采样点处在动态速度场中的速度计算其角动量并求和获得模型的近似角动量L,进而求解出模型角速度ω=I-1L。获得角速度后,对模型角速度进行显示欧拉积分获得模型在动态速度场下的朝向。从整个流程上看,用户通过与真实世界中的图像或物体标记进行交互,通过移动这些标记控制动态特效。由于本实施例中的动态速度场及虚拟元素生成均在3D空间中进行,所获取的动态特效也为三维的动态特效。
(4)获得运动的虚拟元素后,通过增强现实合成效果模块调用移动设备增强现实的显示模块,如图1左下角,将运动的虚拟元素与拍摄到的真实场景叠加绘制在移动设备显示屏上,形成增强现实效果。实施例中,可以调用诸如ARKit、ARCore或ARToolKit等增强现实平台中的渲染函数将运动的虚拟元素绘制叠加到移动设备的摄像头获取的真实场景视频中,以获得含动态特效的增强现实效果。
通过录制与真实世界交互的增强显示效果,无需后期的视频处理,直接获得叠加在视频上,与视频中标记操作位置一致的动态特效。

Claims (10)

1.一种基于移动设备增强现实的动态特效合成方法,其特征在于,包括以下步骤:
(1)引入图像标记,图像标记包括控制标记和发射标记,控制标记指用于控制动态特效运动特性的图像标记,发射标记指用于产生动态特效中虚拟元素的图像标记;
(2)对控制标记跟踪,将所跟踪的控制标记的图像位置信息映射成单元速度场,每个控制标记对应为虚拟世界中的一个单元速度场;将单元速度场注册到增强现实系统中,并将所有的单元速度场合成为全局的动态速度场;
对发射标记跟踪,在所跟踪的发射标记上随机生成虚拟元素,通过调整发射标记的姿态控制虚拟元素的生成位置;
(3)通过动态速度场控制虚拟元素的运动;
(4)获得运动的虚拟元素后,调用移动设备增强现实的显示模块,将运动的虚拟元素与拍摄到的真实场景叠加绘制在移动设备显示屏上,形成增强现实效果。
2.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(2)中,将所跟踪的第i个控制标记的图像平面位置信息Ii=(oi,ni,li,mi)映射成单元速度场vi,其中oi为所跟踪的控制标记的中心位置,ni为所跟踪控制标记的图像的平面法向量,li、mi分别为图像平面矩形的长向量和宽向量。
3.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(2)中,单元速度场为源速度场、吸收速度场、涡流速度场、均匀速度场中的一种或几种。
4.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(2)中,在动态速度场中,将空间任一点p的速度定义为:
其中vi(p)为p点在第i个单元速度场下的速度值,wi(p)为p点处第i个单元速度场的影响权重。
5.根据权利要求4所述的基于移动设备增强现实的动态特效合成方法,其特征在于,所有的单元速度场的影响权重均设置为1。
6.根据权利要求4所述的基于移动设备增强现实的动态特效合成方法,其特征在于,单元速度场的影响权重与点p到中心位置oi的距离成反比。
7.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(2)中,将一个发射标记同时绑定一个单元速度场。
8.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(3)通过动态速度场控制虚拟元素的运动的方法为:若虚拟元素为一个粒子,使用显示欧拉积分或四阶龙格库塔法,将动态速度场中的虚拟元素进行位置积分,获得运动的虚拟元素。
9.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(3)结合动态速度场控制虚拟元素的运动的方法为:若虚拟元素为一个实体模型,计算实体模型的惯性张量I;使用惯性坐标系同惯性张量椭球的交点作为实体模型的采样点;根据各采样点处在动态速度场中的速度计算各采样点处的角动量并求和获得实体模型的近似角动量L;求解实体模型角速度ω=I-1L;获得角速度后,对实体模型角速度进行显示欧拉积分,获得模型在动态速度场下的朝向。
10.根据权利要求1所述的基于移动设备增强现实的动态特效合成方法,其特征在于,步骤(2)中,控制标记的图像平面位置通过调用ARKit、ARCore或ARToolKit增强现实平台中的图像跟踪函数获得。
CN201910053211.4A 2019-01-21 2019-01-21 一种基于移动设备增强现实的动态特效合成方法 Active CN109920035B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910053211.4A CN109920035B (zh) 2019-01-21 2019-01-21 一种基于移动设备增强现实的动态特效合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910053211.4A CN109920035B (zh) 2019-01-21 2019-01-21 一种基于移动设备增强现实的动态特效合成方法

Publications (2)

Publication Number Publication Date
CN109920035A true CN109920035A (zh) 2019-06-21
CN109920035B CN109920035B (zh) 2023-04-21

Family

ID=66960502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910053211.4A Active CN109920035B (zh) 2019-01-21 2019-01-21 一种基于移动设备增强现实的动态特效合成方法

Country Status (1)

Country Link
CN (1) CN109920035B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112166594A (zh) * 2019-09-29 2021-01-01 深圳市大疆创新科技有限公司 视频的处理方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106582016A (zh) * 2016-12-05 2017-04-26 湖南简成信息技术有限公司 基于增强现实的运动游戏控制方法及控制装置
CN107274491A (zh) * 2016-04-09 2017-10-20 大连七界合创科技有限公司 一种三维场景的空间操控虚拟实现方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107274491A (zh) * 2016-04-09 2017-10-20 大连七界合创科技有限公司 一种三维场景的空间操控虚拟实现方法
CN106582016A (zh) * 2016-12-05 2017-04-26 湖南简成信息技术有限公司 基于增强现实的运动游戏控制方法及控制装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
曹阳: "移动增强现实编著工具", 《万方数据知识服务平台》 *
陈靖等: "基于视觉的增强现实运动跟踪算法", 《计算机应用研究》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112166594A (zh) * 2019-09-29 2021-01-01 深圳市大疆创新科技有限公司 视频的处理方法和装置
WO2021056552A1 (zh) * 2019-09-29 2021-04-01 深圳市大疆创新科技有限公司 视频的处理方法和装置

Also Published As

Publication number Publication date
CN109920035B (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
Vera et al. Augmented mirror: interactive augmented reality system based on kinect
KR101334637B1 (ko) 가상 카메라의 성능 시뮬레이션
KR20150014988A (ko) 생성된 장면 내에서 연기하는 배우의 시야와 움직임의 캡쳐
CN112884860B (zh) 水面波纹效果生成方法、装置、电子设备和存储介质
US20230154112A1 (en) Efficient capture and delivery of walkable and interactive virtual reality or 360 degree video
TW202121155A (zh) 互動對象的驅動方法、裝置、設備以及電腦可讀儲存介質
US20230025285A1 (en) Method for Generating Simulations of Fluid Interfaces for Improved Animation of Fluid Interactions
KR20130068575A (ko) 인터랙티브 증강 공간 제공 방법 및 시스템
WO2021173013A1 (en) Method for simulating fluids interacting with submerged porous materials
Hodgins et al. Computer animation
CN109920035A (zh) 一种基于移动设备增强现实的动态特效合成方法
Beacco et al. Footstep parameterized motion blending using barycentric coordinates
CN109215128A (zh) 物体运动姿态图像的合成方法及系统
US20140285513A1 (en) Animation of a virtual object
KR101527792B1 (ko) 상호작용하는 캐릭터를 모델링 하는 방법 및 장치
Zoellner et al. iTACITUS–novel interaction and tracking paradigms for mobile AR
Sato et al. Using motion capture for real-time augmented reality scenes.
Choi et al. Virtual ball player: Synthesizing character animation to control a virtual ball from motion data using interaction patterns
Aloor et al. Design of VR headset using augmented reality
O'Sullivan et al. Metropolis: multisensory simulation of a populated city
Cai et al. Immersive interactive virtual fish swarm simulation based on infrared sensors
US11417043B2 (en) Method for generating simulations of thin film interfaces for improved animation
Ndubuisi et al. Model Retargeting Motion Capture System Based on Kinect Gesture Calibration
KR100684401B1 (ko) 가상현실 기반의 골프학습 장치, 그 방법 및 그 기록매체
Sawicki et al. Performance capture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant