CN111988535A - 光学定位融合画面的系统和方法 - Google Patents
光学定位融合画面的系统和方法 Download PDFInfo
- Publication number
- CN111988535A CN111988535A CN202010794565.7A CN202010794565A CN111988535A CN 111988535 A CN111988535 A CN 111988535A CN 202010794565 A CN202010794565 A CN 202010794565A CN 111988535 A CN111988535 A CN 111988535A
- Authority
- CN
- China
- Prior art keywords
- data
- unit
- scene
- virtual
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000001360 synchronised effect Effects 0.000 claims abstract description 20
- 230000003287 optical effect Effects 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 16
- 238000012545 processing Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 abstract description 11
- 238000012805 post-processing Methods 0.000 abstract description 5
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
光学定位融合画面的系统和方法,涉及图像处理技术领域,包括:虚拟场景模块、实景模块、定位模块、融合模块和显示模块。通过构建虚拟场景,并设置虚拟相机单元和定位单元,获得虚拟相机单元在虚拟场景中的坐标和运动状态数据,然后构建与虚拟场景搭建同比例的实景空间,在实景空间中设置摄像单元和定位器,定位模块根据定位器标记摄像单元的位置计算摄像单元的坐标和运动状态数据与虚拟相机单元的坐标和运动状态数据融合得到同步数据,融合模块将实景空间与虚拟场景融合,得到融合后的画面,实现了实时同步显示虚拟场景与演员融合的效果,解决了目前视频处理存在的不能在拍摄过程中实时得到画面融合后的效果,导致后期处理视频效果不好的问题。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及光学定位融合画面的系统和方法。
背景技术
目前,在对视频增加特效时会使用绿幕等进行实景拍摄,后期制作过程中通过去除绿色背景同时与虚拟画面进行融合得到融合的画面,这样的制作过程需要先进行实景拍摄,在进行视频后期处理,但是由于实景拍摄不能进行实时的效果预览,不能对演员的肢体动作进行实时的修正,造成在后期处理过程中不能达到满意的效果。
发明内容
本发明实施例提供了光学定位融合画面的系统和方法,通过对设置虚拟场景模块构建虚拟场景,并在虚拟场景中设置虚拟相机单元和定位单元,获得虚拟相机单元在虚拟场景中的坐标和运动状态数据,然后实景模块根据构建的虚拟场景搭建同比例的实景空间,在实景空间中设置摄像单元和定位器,定位器标记摄像单元的位置和运动状态,定位模块根据定位器标记摄像单元的位置计算摄像单元在实景空间中的坐标和运动状态数据,并与虚拟相机单元在虚拟场景中的坐标和运动状态数据进行融合得到同步数据,融合模块将实景空间的不需要的部分去除得到主体部分,与虚拟场景进行融合,得到融合后的画面并通过显示模块实时输出,解决了目前视频处理存在的不能在拍摄过程中实时得到画面融合后的效果,导致后期处理视频效果不好的问题。
光学定位融合画面的系统,包括:虚拟场景模块、实景模块、定位模块、融合模块和显示模块;
虚拟场景模块,用于创建虚拟场景数据进行保存,并将虚拟场景数据和虚拟场景数据中虚拟相机单元的坐标数据和运动状态数据、虚拟场景的图像数据分别发送到所述实景模块、所述定位模块和所述融合模块;
其中,所述虚拟场景模块包括虚拟场景单元、虚拟相机单元、定位单元、存储单元和输出端,所述虚拟场景单元用于构建虚拟场景数据,所述存储单元用于存储所述虚拟场景单元用于构建虚拟场景数据,所述虚拟相机单元用于将虚拟场景数据中的画面导出得到虚拟场景的图像数据,所述定位单元用于采集虚拟相机单元在虚拟场景数据中的坐标和运动状态,得到虚拟相机单元的坐标数据和运动状态数据,所述输出端用于分别将虚拟场景数据发送到所述实景模块,将虚拟场景中的图像数据发送到所述融合模块,将虚拟相机单元的坐标数据和运动状态数据发送到所述定位模块;
实景模块,用于接收所述虚拟场景模块发送的虚拟场景数据,并根据虚拟场景数据搭建与虚拟场景数据同比例的实景空间,并通过摄像单元对搭建的空间进行图像采集,同时还用于将摄像单元的坐标数据和运动状态数据和采集的实景空间中的图像数据分别发送到所述定位模块和所述融合模块;
其中,所述实景模块包括实景单元、摄像单元、定位器和输出单元,所述实景单元用于根据接收的虚拟场景数据搭建与虚拟场景数据同比例的实景空间,所述摄像单元用于采集实景空间中的图像数据,所述定位器用于标记所述摄像单元在所述实景空间中的位置数据和运动状态数据,所述输出单元用于分别将所述摄像单元采集的实景空间中的图像数据发送到融合模块和定位器标记所述摄像单元在所述实景空间中的位置数据和运动状态数据发送到所述定位模块;
定位模块,用于接收所述虚拟场景模块发送的所述虚拟相机单元的坐标数据和运动状态数据,接收所述实景模块发送的所述摄像单元在所述实景空间中的位置数据和运动状态数据,还用于对所述摄像单元在所述实景空间中的位置数据和运动状态数据进行分析得到所述摄像单元的坐标并与所述虚拟相机单元的坐标数据和运动状态数据进行映射得到同步数据,将同步数据发送到融合模块;
其中,所述定位模块包括光学定位单元和分析单元,所述光学定位单元用于接收所述输出单元发送的位置数据和运动状态数据,对位置数据和运动状态数据进行分析得到所述摄像单元的坐标数据和运动状态数据,将所述摄像单元的坐标数据和运动状态数据发送到所述分析单元,所述分析单元用于分别接收所述光学定位单元发送的所述摄像单元的坐标数据和运动状态数据和所述输出端发送的虚拟相机单元的坐标数据和运动状态数据,同时用于将所述摄像单元的坐标数据和运动状态数据和所述虚拟相机单元的坐标数据和运动状态数据进行映射,得到同步数据,将同步数据发送到所述融合模块;
融合模块,用于接收所述虚拟场景模块发送的虚拟场景中的图像数据,接收所述实景空间中的图像数据,接收所述定位模块发送的同步数据,将虚拟场景中的图像数据与实景空间中的图像数据进行融合,将融合后的图像输出到显示模块;
其中,所述融合模块包括背景去除单元、画面同步单元和画面融合单元,所述背景去除单元用于去除实景空间中的图像数据中不需要保存的部分,得到主体部分图像数据,所述画面同步单元用于根据同步数据同步所述虚拟相机单元与摄像单元的运动状态一致,实现所述虚拟相机单元采集的画面的坐标与所述摄像单元采集的画面的坐标保持一致,所述画面融合单元用于将主体部分图像数据与虚拟场景中的图像数据进行融合,将融合完成的图像数据发送到显示模块;
显示模块,用于接收所述融合模块发送的图像数据进行显示。
进一步的,同步数据用于所述摄像单元在实景空间中移动的过程中同步驱动所述虚拟相机单元在所述虚拟场景单元构建的虚拟场景中运动;
进一步的,实景空间内部设置有绿幕。
进一步的,所述光学定位单元的数量为多个,分布于实景空间中的内部用于确定所述摄像单元的坐标。
第二方面,本发明实施例提供光学定位融合画面的方法,包括以下步骤:
S1,构建虚拟空间,虚拟场景模块中虚拟场景单元构建虚拟场景数据,存储单元存储虚拟场景单元构建虚拟场景数据,虚拟相机单元将虚拟场景数据中的画面导出得到虚拟场景的图像数据,定位单元采集虚拟相机单元在虚拟场景数据中的坐标和运动状态,得到虚拟相机单元的坐标数据和运动状态数据,输出端分别将虚拟场景数据发送到实景模块,将虚拟场景中的图像数据发送到融合模块,将虚拟相机单元的坐标数据和运动状态数据发送到定位模块;
S2,构建实景空间,实景模块中实景单元根据接收的虚拟场景数据搭建与虚拟场景数据同比例的实景空间,摄像单元采集实景空间中的图像数据,定位器标记摄像单元在实景空间中的位置数据和运动状态数据,输出单元分别将摄像单元采集的实景空间中的图像数据发送到融合模块和定位器标记摄像单元在实景空间中的位置数据和运动状态数据发送到定位模块;
S3,视角融合,定位模块中光学定位单元接收输出单元发送的位置数据和运动状态数据,对位置数据和运动状态数据进行分析得到摄像单元的坐标数据和运动状态数据,将摄像单元的坐标数据和运动状态数据发送到分析单元,分析单元分别接收光学定位单元发送的摄像单元的坐标数据和运动状态数据和输出端发送的虚拟相机单元的坐标数据和运动状态数据,同时将摄像单元的坐标数据和运动状态数据和虚拟相机单元的坐标数据和运动状态数据进行映射,得到同步数据,将同步数据发送到融合模块;
S4,画面融合,融合模块中背景去除单元去除实景空间中的图像数据中不需要保存的部分,得到主体部分图像数据,画面融合单元将主体部分图像数据与虚拟场景中的图像数据进行融合,将融合完成的图像数据发送到显示模块;
S5,画面显示,显示模块接收融合模块发送的图像数据进行显示。
本发明实施例提供的上述技术方案的有益效果至少包括:
本发明通过设置虚拟场景模块构建虚拟场景,并在虚拟场景中设置虚拟相机单元和定位单元,获得虚拟相机单元在虚拟场景中的坐标和运动状态数据,然后实景模块根据构建的虚拟场景搭建同比例的实景空间,在实景空间中设置摄像单元和定位器,定位器标记摄像单元的位置运动状态数据,定位模块根据定位器标记摄像单元的位置计算摄像单元在实景空间中的坐标和运动状态数据,并与虚拟相机单元在虚拟场景中的坐标和运动状态数据进行融合得到同步数据,融合模块将实景空间的不需要的部分去除得到主体部分,与虚拟场景进行融合,得到融合后的画面并通过显示模块实时输出,解决了目前视频处理存在的不能在拍摄过程中实时得到画面融合后的效果,导致后期处理视频效果不好的问题。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例公开的光学定位融合画面的系统结构示意图;
图2为本发明实施例公开的光学定位融合画面的方法流程图。
附图标记:
100-虚拟场景模块;101-虚拟场景单元;102-虚拟相机单元;103-定位单元;104-存储单元;105-输出端;200-实景模块;201-实景单元;202-摄像单元;203-定位器;204-输出单元;300-定位模块;301-光学定位单元;302-分析单元;400-融合模块;401-背景去除单元;402-画面同步单元;403-画面融合单元;500-显示模块。
具体实施例
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
实施例一
如图1所示,本发明实施例提供光学定位融合画面的系统,包括:虚拟场景模块100、实景模块200、定位模块300、融合模块400和显示模块500;
虚拟场景模块100,用于创建虚拟场景数据进行保存,并将虚拟场景数据和虚拟场景数据中虚拟相机单元102的坐标数据和运动状态数据、虚拟场景的图像数据分别发送到所述实景模块200、所述定位模块300和所述融合模块400,所述虚拟场景模块100包括虚拟场景单元101、虚拟相机单元102、定位单元103、存储单元104和输出端105,所述虚拟场景单元101用于构建虚拟场景数据,所述存储单元104用于存储所述虚拟场景单元101用于构建虚拟场景数据,所述虚拟相机单元102用于将虚拟场景数据中的画面导出得到虚拟场景的图像数据,所述定位单元103用于采集虚拟相机单元102在虚拟场景数据中的坐标,得到虚拟相机单元102的坐标数据和运动状态数据,所述输出端105用于分别将虚拟场景数据发送到所述实景模块200,将虚拟场景中的图像数据发送到所述融合模块400,将虚拟相机单元102的坐标数据和运动状态数据发送到所述定位模块300;
具体的,用户通过虚拟场景单元101构建出虚拟的场景,并通过存储单元104进行存储,通过虚拟相机单元102采集虚拟场景中的画面,例如,虚拟相机单元102在虚拟场景中运动,对运动过程中拍摄的画面进行采集得到虚拟场景中的图像数据,同时定位单元103采集虚拟相机单元102在虚拟场景中的具体坐标,输出端105分别将构建的虚拟场景发送到实景模块200进行处理,将虚拟场景中的图像数据发送到融合模块400进行处理,将虚拟相机单元102的坐标数据和运动状态数据发送到定位模块300进行处理。
实景模块200,用于接收所述虚拟场景模块100发送的虚拟场景数据,并根据虚拟场景数据搭建与虚拟场景数据同比例的实景空间,实景空间内部设置有绿幕,并通过摄像单元202对搭建的空间进行图像采集,同时还用于将摄像单元202的坐标数据和运动状态数据和采集的实景空间中的图像数据分别发送到所述定位模块300和所述融合模块400,所述实景模块200包括实景单元201、摄像单元202、定位器203和输出单元204,所述实景单元201用于根据接收的虚拟场景数据搭建与虚拟场景数据同比例的实景空间,所述摄像单元202用于采集实景空间中的图像数据,所述定位器203用于标记所述摄像单元202在所述实景空间中的位置数据和运动状态数据,所述输出单元204用于分别将所述摄像单元202采集的实景空间中的图像数据发送到融合模块400和定位器203标记所述摄像单元202在所述实景空间中的位置数据和运动状态数据发送到所述定位模块300;
具体的,实景单元201接收到虚拟场景数据后根据虚拟场景数据的参数搭建一个与虚拟场景同比例大小的空间,该空间只有虚拟场景的外围部分,虚拟场景内部包含的其他物体均不搭建,在搭建出来的实景空间内部铺设绿幕,演员进入实景空间内部进行拍摄工作,使用摄像单元202采集实景空间中演员的图像数据和实景空间内部的图像数据得到实景空间的图像数据,定位器203设置在摄像单元202的表面标记当前摄像单元202所在位置得到摄像单元202的位置数据和运动状态数据,输出单元204分别将摄像单元202采集的实景空间中的图像数据发送到融合模块400,将定位器203标记摄像单元202在实景空间中的位置数据和运动状态数据发送到定位模块300。
定位模块300,用于接收所述虚拟场景模块100发送的所述虚拟相机单元102的坐标数据和运动状态数据,接收所述实景模块200发送的所述摄像单元202在所述实景空间中的位置数据和运动状态数据,还用于对所述摄像单元202在所述实景空间中的位置数据和运动状态数据进行分析得到所述摄像单元202的坐标并与所述虚拟相机单元102的坐标数据和运动状态数据进行映射得到同步数据,将同步数据发送到融合模块400,所述定位模块300包括光学定位单元301和分析单元302,所述光学定位单元301用于接收所述输出单元204发送的位置数据和运动状态数据,对位置数据和运动状态数据进行分析得到所述摄像单元202的坐标数据和运动状态数据,将所述摄像单元202的坐标数据和运动状态数据发送到所述分析单元302,所述光学定位单元301的数量为多个,分布于实景空间中的内部用于确定所述摄像单元202的坐标,所述分析单元302用于分别接收所述光学定位单元301发送的所述摄像单元202的坐标数据和运动状态数据和所述输出端105发送的虚拟相机单元102的坐标数据和运动状态数据,同时用于将所述摄像单元202的坐标数据和运动状态数据和所述虚拟相机单元102的坐标数据和运动状态数据进行映射,得到同步数据,将同步数据发送到所述融合模块400;
具体的,光学定位单元301为多个,且分布于实景空间中的内部各个地方,通过同时接收摄像单元202的位置数据和运动状态数据,确定摄像单元202的位置坐标和运动状态,分析单元302将摄像单元202的坐标数据和运动状态数据和虚拟相机单元102的坐标数据和运动状态数据进行映射,例如,虚拟相机单元102的坐标为(12,13,14),运动状态为静止,镜头朝南,摄像单元202的坐标为(25,26,27),运动状态为静止,镜头朝北,分析单元302通过分析,将虚拟相机单元102的坐标和运动状态调整为与摄像单元202的坐标和运动状态一致,即为(25,26,27),运动状态为静止,镜头朝北,得到同步数据,将同步数据发送到所述融合模块400。
融合模块400,用于接收所述虚拟场景模块100发送的虚拟场景中的图像数据,接收所述实景空间中的图像数据,接收所述定位模块300发送的同步数据,将虚拟场景中的图像数据与实景空间中的图像数据进行融合,将融合后的图像输出到显示模块500,所述融合模块400包括背景去除单元401、画面同步单元402和画面融合单元403,所述背景去除单元401用于去除实景空间中的图像数据中不需要保存的部分,得到主体部分图像数据,所述画面同步单元402用于根据同步数据同步所述虚拟相机单元102与摄像单元202的运动状态一致,摄像单元202在实景空间中移动的过程中同步驱动虚拟相机单元102在虚拟场景单元101构建的虚拟场景中运动,实现所述虚拟相机单元102采集的画面的坐标与所述摄像单元202采集的画面的坐标保持一致,所述画面融合单元403用于将主体部分图像数据与虚拟场景中的图像数据进行融合,将融合完成的图像数据发送到显示模块500;
具体的,背景去除单元401对实景空间中的图像数据进行分析,将实景空间中的图像数据中的人物部分保留,将其他部分去除,得到人物主体部分的数据,画面融合单元403将主体部分图像数据与虚拟场景中的图像数据进行融合得到融合的图像,画面同步单元402导入同步数据后,根据摄像单元202的坐标和运动状态同步调整虚拟相机单元102的坐标和运动状态,使虚拟相机单元102采集的画面与摄像单元202采集的画面在采集融合的过程中保持一致,使演员融入虚拟画面更加真实自然,将融合完成的图像数据发送到显示模块500。
显示模块500,用于接收所述融合模块400发送的图像数据进行显示。
本发明通过设置虚拟场景模块100构建虚拟场景,并在虚拟场景中设置虚拟相机单元102和定位单元103,获得虚拟相机单元102在虚拟场景中的坐标和运动状态数据,然后实景模块200根据构建的虚拟场景搭建同比例的实景空间,在实景空间中设置摄像单元202和定位器203,定位器203标记摄像单元202的位置运动状态数据,定位模块300根据定位器203标记摄像单元202的位置计算摄像单元202在实景空间中的坐标和运动状态数据,并与虚拟相机单元102在虚拟场景中的坐标和运动状态数据进行融合得到同步数据,融合模块400将实景空间的不需要的部分去除得到主体部分,与虚拟场景进行融合,得到融合后的画面并通过显示模块500实时输出,实时显示虚拟场景与演员融合的效果,解决了目前视频处理存在的不能在拍摄过程中实时得到画面融合后的效果,导致后期处理视频效果不好的问题。
实施例二
本发明实施例还公开了光学定位融合画面的方法,如图2,包括以下步骤:
S1,构建虚拟空间,虚拟场景模块100中虚拟场景单元101构建虚拟场景数据,存储单元104存储虚拟场景单元101构建虚拟场景数据,虚拟相机单元102将虚拟场景数据中的画面导出得到虚拟场景的图像数据,定位单元103采集虚拟相机单元102在虚拟场景数据中的坐标和运动状态,得到虚拟相机单元102的坐标数据和运动状态数据,输出端105分别将虚拟场景数据发送到实景模块200,将虚拟场景中的图像数据发送到融合模块400,将虚拟相机单元102的坐标数据和运动状态数据发送到定位模块300;
具体的,用户通过虚拟场景单元101构建出虚拟的场景,并通过存储单元104进行存储,通过虚拟相机单元102采集虚拟场景中的画面,例如,虚拟相机单元102在虚拟场景中运动,对运动过程中拍摄的画面进行采集得到虚拟场景中的图像数据,同时定位单元103采集虚拟相机单元102在虚拟场景中的具体坐标和运动状态,输出端105分别将构建的虚拟场景发送到实景模块200进行处理,将虚拟场景中的图像数据发送到融合模块400进行处理,将虚拟相机单元102的坐标数据和运动状态数据发送到定位模块300进行处理。
S2,构建实景空间,实景模块200中实景单元201根据接收的虚拟场景数据搭建与虚拟场景数据同比例的实景空间,摄像单元202采集实景空间中的图像数据,定位器203标记摄像单元202在实景空间中的位置数据和运动状态数据,输出单元204分别将摄像单元202采集的实景空间中的图像数据发送到融合模块400和定位器203标记摄像单元202在实景空间中的位置数据和运动状态数据发送到定位模块300;
具体的,实景单元201接收到虚拟场景数据后根据虚拟场景数据的参数搭建一个与虚拟场景同比例大小的空间,该空间只有虚拟场景的外围部分,虚拟场景内部包含的其他物体均不搭建,在搭建出来的实景空间内部铺设绿幕,演员进入实景空间内部进行拍摄工作,使用摄像单元202采集实景空间中演员的图像数据和实景空间内部的图像数据得到实景空间的图像数据,定位器203设置在摄像单元202的表面标记当前摄像单元202所在位置得到摄像单元202的位置数据和运动状态数据,输出单元204分别将摄像单元202采集的实景空间中的图像数据发送到融合模块400,将定位器203标记摄像单元202在实景空间中的位置数据和运动状态数据发送到定位模块300。
S3,视角融合,定位模块300中光学定位单元301接收输出单元204发送的位置数据和运动状态数据,对位置数据和运动状态数据进行分析得到摄像单元202的坐标数据和运动状态数据,将摄像单元202的坐标数据和运动状态数据发送到分析单元302,分析单元302分别接收光学定位单元301发送的摄像单元202的坐标数据和运动状态数据和输出端105发送的虚拟相机单元102的坐标数据和运动状态数据,同时将摄像单元202的坐标数据和运动状态数据和虚拟相机单元102的坐标数据和运动状态数据进行映射,得到同步数据,将同步数据发送到融合模块400;
具体的,光学定位单元301为多个,且分布于实景空间中的内部各个地方,通过同时接收摄像单元202的位置数据和运动状态数据,确定摄像单元202的位置坐标和运动状态,分析单元302将摄像单元202的坐标数据和运动状态数据和虚拟相机单元102的坐标数据和运动状态数据进行映射,例如,虚拟相机单元102的坐标为(12,13,14),运动状态为静止,镜头朝南,摄像单元202的坐标为(25,26,27),运动状态为静止,镜头朝北,分析单元302通过分析,将虚拟相机单元102的坐标和运动状态调整为与摄像单元202的坐标和运动状态一致,即为(25,26,27),运动状态为静止,镜头朝北,得到同步数据,将同步数据发送到所述融合模块400。
S4,画面融合,融合模块400中背景去除单元401去除实景空间中的图像数据中不需要保存的部分,得到主体部分图像数据,画面融合单元403将主体部分图像数据与虚拟场景中的图像数据进行融合,将融合完成的图像数据发送到显示模块500;
具体的,背景去除单元401对实景空间中的图像数据进行分析,将实景空间中的图像数据中的人物部分保留,将其他部分去除,得到人物主体部分的数据,画面融合单元403将主体部分图像数据与虚拟场景中的图像数据进行融合得到融合的图像,画面同步单元402导入同步数据后,根据摄像单元202的坐标和运动状态同步调整虚拟相机单元102的坐标和运动状态,使虚拟相机单元102采集的画面与摄像单元202采集的画面在采集融合的过程中保持一致,使演员融入虚拟画面更加真实自然,将融合完成的图像数据发送到显示模块500。
S5,画面显示,显示模块500接收融合模块400发送的图像数据进行显示。
本实施例公开的光学定位融合画面的方法,通过设置虚拟场景模块100构建虚拟场景,并在虚拟场景中设置虚拟相机单元102和定位单元103,获得虚拟相机单元102在虚拟场景中的坐标和运动状态数据,然后实景模块200根据构建的虚拟场景搭建同比例的实景空间,在实景空间中设置摄像单元202和定位器203,定位器203标记摄像单元202的位置运动状态数据,定位模块300根据定位器203标记摄像单元202的位置计算摄像单元202在实景空间中的坐标和运动状态数据,并与虚拟相机单元102在虚拟场景中的坐标和运动状态数据进行融合得到同步数据,融合模块400将实景空间的不需要的部分去除得到主体部分,与虚拟场景进行融合,得到融合后的画面并通过显示模块500实时输出,实时显示虚拟场景与演员融合的效果,解决了目前视频处理存在的不能在拍摄过程中实时得到画面融合后的效果,导致后期处理视频效果不好的问题。
应该明白,公开的过程中的步骤的特定顺序或层次是示例性方法的实例。基于设计偏好,应该理解,过程中的步骤的特定顺序或层次可以在不脱离本公开的保护范围的情况下得到重新安排。所附的方法权利要求以示例性的顺序给出了各种步骤的要素,并且不是要限于所述的特定顺序或层次。
在上述的详细描述中,各种特征一起组合在单个的实施方案中,以简化本公开。不应该将这种公开方法解释为反映了这样的意图,即,所要求保护的主题的实施方案需要清楚地在每个权利要求中所陈述的特征更多的特征。相反,如所附的权利要求书所反映的那样,本发明处于比所公开的单个实施方案的全部特征少的状态。因此,所附的权利要求书特此清楚地被并入详细描述中,其中每项权利要求独自作为本发明单独的优选实施方案。
本领域技术人员还应当理解,结合本文的实施例描述的各种说明性的逻辑框、模块、电路和算法步骤均可以实现成电子硬件、计算机软件或其组合。为了清楚地说明硬件和软件之间的可交换性,上面对各种说明性的部件、框、模块、电路和步骤均围绕其功能进行了一般地描述。至于这种功能是实现成硬件还是实现成软件,取决于特定的应用和对整个系统所施加的设计约束条件。熟练的技术人员可以针对每个特定应用,以变通的方式实现所描述的功能,但是,这种实现决策不应解释为背离本公开的保护范围。
结合本文的实施例所描述的方法或者算法的步骤可直接体现为硬件、由处理器执行的软件模块或其组合。软件模块可以位于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动磁盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质连接至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。该ASIC可以位于用户终端中。当然,处理器和存储介质也可以作为分立组件存在于用户终端中。
对于软件实现,本申请中描述的技术可用执行本申请所述功能的模块(例如,过程、函数等)来实现。这些软件代码可以存储在存储器单元并由处理器执行。存储器单元可以实现在处理器内,也可以实现在处理器外,在后一种情况下,它经由各种手段以通信方式耦合到处理器,这些都是本领域中所公知的。
上文的描述包括一个或多个实施例的举例。当然,为了描述上述实施例而描述部件或方法的所有可能的结合是不可能的,但是本领域普通技术人员应该认识到,各个实施例可以做进一步的组合和排列。因此,本文中描述的实施例旨在涵盖落入所附权利要求书的保护范围内的所有这样的改变、修改和变型。此外,就说明书或权利要求书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”,就如同“包括,”在权利要求中用作衔接词所解释的那样。此外,使用在权利要求书的说明书中的任何一个术语“或者”是要表示“非排它性的或者”。
Claims (5)
1.光学定位融合画面的系统,其特征在于,包括:虚拟场景模块、实景模块、定位模块、融合模块和显示模块;
虚拟场景模块,用于创建虚拟场景数据进行保存,并将虚拟场景数据和虚拟场景数据中虚拟相机单元的坐标数据和运动状态数据、虚拟场景的图像数据分别发送到所述实景模块、所述定位模块和所述融合模块;
其中,所述虚拟场景模块包括虚拟场景单元、虚拟相机单元、定位单元、存储单元和输出端,所述虚拟场景单元用于构建虚拟场景数据,所述存储单元用于存储所述虚拟场景单元用于构建虚拟场景数据,所述虚拟相机单元用于将虚拟场景数据中的画面导出得到虚拟场景的图像数据,所述定位单元用于采集虚拟相机单元在虚拟场景数据中的坐标和运动状态,得到虚拟相机单元的坐标数据和运动状态数据,所述输出端用于分别将虚拟场景数据发送到所述实景模块,将虚拟场景中的图像数据发送到所述融合模块,将虚拟相机单元的坐标数据和运动状态数据发送到所述定位模块;
实景模块,用于接收所述虚拟场景模块发送的虚拟场景数据,并根据虚拟场景数据搭建与虚拟场景数据同比例的实景空间,并通过摄像单元对搭建的空间进行图像采集,同时还用于将摄像单元的坐标数据和运动状态数据和采集的实景空间中的图像数据分别发送到所述定位模块和所述融合模块;
其中,所述实景模块包括实景单元、摄像单元、定位器和输出单元,所述实景单元用于根据接收的虚拟场景数据搭建与虚拟场景数据同比例的实景空间,所述摄像单元用于采集实景空间中的图像数据,所述定位器用于标记所述摄像单元在所述实景空间中的位置数据和运动状态数据,所述输出单元用于分别将所述摄像单元采集的实景空间中的图像数据发送到融合模块和定位器标记所述摄像单元在所述实景空间中的位置数据和运动状态数据发送到所述定位模块;
定位模块,用于接收所述虚拟场景模块发送的所述虚拟相机单元的坐标数据和运动状态数据,接收所述实景模块发送的所述摄像单元在所述实景空间中的位置数据和运动状态数据,还用于对所述摄像单元在所述实景空间中的位置数据和运动状态数据进行分析得到所述摄像单元的坐标并与所述虚拟相机单元的坐标数据和运动状态数据进行映射得到同步数据,将同步数据发送到融合模块;
其中,所述定位模块包括光学定位单元和分析单元,所述光学定位单元用于接收所述输出单元发送的位置数据和运动状态数据,对位置数据和运动状态数据进行分析得到所述摄像单元的坐标数据和运动状态数据,将所述摄像单元的坐标数据和运动状态数据发送到所述分析单元,所述分析单元用于分别接收所述光学定位单元发送的所述摄像单元的坐标数据和运动状态数据和所述输出端发送的虚拟相机单元的坐标数据和运动状态数据,同时用于将所述摄像单元的坐标数据和运动状态数据和所述虚拟相机单元的坐标数据和运动状态数据进行映射,得到同步数据,将同步数据发送到所述融合模块;
融合模块,用于接收所述虚拟场景模块发送的虚拟场景中的图像数据,接收所述实景空间中的图像数据,接收所述定位模块发送的同步数据,将虚拟场景中的图像数据与实景空间中的图像数据进行融合,将融合后的图像输出到显示模块;
其中,所述融合模块包括背景去除单元、画面同步单元和画面融合单元,所述背景去除单元用于去除实景空间中的图像数据中不需要保存的部分,得到主体部分图像数据,所述画面同步单元用于根据同步数据同步所述虚拟相机单元与摄像单元的运动状态一致,实现所述虚拟相机单元采集的画面的坐标与所述摄像单元采集的画面的坐标保持一致,所述画面融合单元用于将主体部分图像数据与虚拟场景中的图像数据进行融合,将融合完成的图像数据发送到显示模块;
显示模块,用于接收所述融合模块发送的图像数据进行显示。
2.如权利要求1所述的光学定位融合画面的系统,其特征在于,同步数据用于所述摄像单元在实景空间中移动的过程中同步驱动所述虚拟相机单元在所述虚拟场景单元构建的虚拟场景中运动。
3.如权利要求1所述的光学定位融合画面的系统,其特征在于,实景空间内部设置有绿幕。
4.如权利要求1所述的光学定位融合画面的系统,其特征在于,所述光学定位单元的数量为多个,分布于实景空间中的内部用于确定所述摄像单元的坐标。
5.光学定位融合画面的方法,应用于如权利要求1-4任一项所述的光学定位融合画面的系统,其特征在于,包括以下步骤:
S1,构建虚拟空间,虚拟场景模块中虚拟场景单元构建虚拟场景数据,存储单元存储虚拟场景单元构建虚拟场景数据,虚拟相机单元将虚拟场景数据中的画面导出得到虚拟场景的图像数据,定位单元采集虚拟相机单元在虚拟场景数据中的坐标和运动状态,得到虚拟相机单元的坐标数据和运动状态数据,输出端分别将虚拟场景数据发送到实景模块,将虚拟场景中的图像数据发送到融合模块,将虚拟相机单元的坐标数据和运动状态数据发送到定位模块;
S2,构建实景空间,实景模块中实景单元根据接收的虚拟场景数据搭建与虚拟场景数据同比例的实景空间,摄像单元采集实景空间中的图像数据,定位器标记摄像单元在实景空间中的位置数据和运动状态数据,输出单元分别将摄像单元采集的实景空间中的图像数据发送到融合模块和定位器标记摄像单元在实景空间中的位置数据和运动状态数据发送到定位模块;
S3,视角融合,定位模块中光学定位单元接收输出单元发送的位置数据和运动状态数据,对位置数据和运动状态数据进行分析得到摄像单元的坐标数据和运动状态数据,将摄像单元的坐标数据和运动状态数据发送到分析单元,分析单元分别接收光学定位单元发送的摄像单元的坐标数据和运动状态数据和输出端发送的虚拟相机单元的坐标数据和运动状态数据,同时将摄像单元的坐标数据和运动状态数据和虚拟相机单元的坐标数据和运动状态数据进行映射,得到同步数据,将同步数据发送到融合模块;
S4,画面融合,融合模块中背景去除单元去除实景空间中的图像数据中不需要保存的部分,得到主体部分图像数据,画面融合单元将主体部分图像数据与虚拟场景中的图像数据进行融合,将融合完成的图像数据发送到显示模块;
S5,画面显示,显示模块接收融合模块发送的图像数据进行显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010794565.7A CN111988535A (zh) | 2020-08-10 | 2020-08-10 | 光学定位融合画面的系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010794565.7A CN111988535A (zh) | 2020-08-10 | 2020-08-10 | 光学定位融合画面的系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111988535A true CN111988535A (zh) | 2020-11-24 |
Family
ID=73445823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010794565.7A Pending CN111988535A (zh) | 2020-08-10 | 2020-08-10 | 光学定位融合画面的系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111988535A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672057A (zh) * | 2020-12-25 | 2021-04-16 | 维沃移动通信有限公司 | 拍摄方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122233A (ja) * | 2003-10-14 | 2005-05-12 | Canon Inc | 情報処理装置および方法並びに記憶媒体 |
JP2006018444A (ja) * | 2004-06-30 | 2006-01-19 | Taisei Corp | 画像処理システム及び付加情報指示装置 |
KR20120044461A (ko) * | 2010-10-28 | 2012-05-08 | (주)브이엔에스텍 | 융합 현실을 이용한 가상 훈련 장치 및 방법 |
CN107918948A (zh) * | 2017-11-02 | 2018-04-17 | 深圳市自由视像科技有限公司 | 4d视频渲染方法 |
CN110866978A (zh) * | 2019-11-07 | 2020-03-06 | 辽宁东智威视科技有限公司 | 一种实时混合现实视频拍摄中的相机同步方法 |
CN111447340A (zh) * | 2020-05-29 | 2020-07-24 | 深圳市瑞立视多媒体科技有限公司 | 混合现实虚拟预演拍摄系统 |
-
2020
- 2020-08-10 CN CN202010794565.7A patent/CN111988535A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122233A (ja) * | 2003-10-14 | 2005-05-12 | Canon Inc | 情報処理装置および方法並びに記憶媒体 |
JP2006018444A (ja) * | 2004-06-30 | 2006-01-19 | Taisei Corp | 画像処理システム及び付加情報指示装置 |
KR20120044461A (ko) * | 2010-10-28 | 2012-05-08 | (주)브이엔에스텍 | 융합 현실을 이용한 가상 훈련 장치 및 방법 |
CN107918948A (zh) * | 2017-11-02 | 2018-04-17 | 深圳市自由视像科技有限公司 | 4d视频渲染方法 |
CN110866978A (zh) * | 2019-11-07 | 2020-03-06 | 辽宁东智威视科技有限公司 | 一种实时混合现实视频拍摄中的相机同步方法 |
CN111447340A (zh) * | 2020-05-29 | 2020-07-24 | 深圳市瑞立视多媒体科技有限公司 | 混合现实虚拟预演拍摄系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672057A (zh) * | 2020-12-25 | 2021-04-16 | 维沃移动通信有限公司 | 拍摄方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584295B (zh) | 对图像内目标物体进行自动标注的方法、装置及系统 | |
JP5096302B2 (ja) | 撮像装置 | |
CN109934931B (zh) | 采集图像、建立目标物体识别模型的方法及装置 | |
EP2104336A2 (en) | Composition determination device, composition determination method, and program | |
JP2005151563A (ja) | パノラマ画像の生成方法およびパノラマ画像用カメラ | |
CN101689292A (zh) | Banana多媒体数字信号编解码器 | |
CN106210535A (zh) | 全景视频实时拼接方法及装置 | |
WO2017222649A1 (en) | Method and apparatus for rolling shutter compensation | |
CN102550015A (zh) | 多视点拍摄控制装置、控制方法以及控制程序 | |
WO2018228466A1 (zh) | 对焦区域显示方法、装置及终端设备 | |
JP2019045991A (ja) | 生成装置、生成方法、及びプログラム | |
CN102542569B (zh) | 一种快速图像配准及其标定方法及实现其的系统 | |
CN112995507A (zh) | 提示对象位置的方法及装置 | |
CN113923354B (zh) | 基于多帧图像的视频处理方法、设备及虚拟背景拍摄系统 | |
CN111988535A (zh) | 光学定位融合画面的系统和方法 | |
CN108564654B (zh) | 三维大场景的画面进入方式 | |
CN112017242B (zh) | 显示方法及装置、设备、存储介质 | |
CN105143816B (zh) | 三维形状计测装置、三维形状计测方法及三维形状计测程序 | |
JP2017212755A (ja) | 撮像装置 | |
CN117014716A (zh) | 一种目标追踪方法及电子设备 | |
JP5209100B2 (ja) | 撮像装置 | |
CN113472984B (zh) | 图像获取方法、装置、系统、存储介质和设备 | |
CN112422848B (zh) | 一种基于深度图和彩色图的视频拼接方法 | |
WO2022036512A1 (zh) | 数据处理方法、装置、终端和存储介质 | |
CN112019735B (zh) | 一种拍摄方法及装置、存储介质、电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201124 |