CN105191287B - 替换视频流中的对象的方法及计算机程序 - Google Patents
替换视频流中的对象的方法及计算机程序 Download PDFInfo
- Publication number
- CN105191287B CN105191287B CN201380074265.XA CN201380074265A CN105191287B CN 105191287 B CN105191287 B CN 105191287B CN 201380074265 A CN201380074265 A CN 201380074265A CN 105191287 B CN105191287 B CN 105191287B
- Authority
- CN
- China
- Prior art keywords
- image
- pose
- camera
- camera parameter
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
- H04N5/2723—Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及替换视频流中的对象的方法。视场的立体视图被创建。其用于测量距离摄像机的距离并确定前景、背景和遮挡对象。立体视图可由3D摄像机提供或其可使用来自单一摄像机或多台摄像机的信号构造。将被替换的对象的结构可以是静态的或动态的。该方法不需要任何特殊设备来跟踪摄像机的位置并且其可被用于直播内容及存档的材料。本发明利用了当将被替换的对象被电子地被填充时的特殊情况中将被替换的源材料。
Description
技术领域
本发明涉及图像处理且更具体地涉及替换视频流中的对象的方法以及用于执行该方法的计算机程序。
更具体地说,该方法涉及检测和识别视频流中将被替换的对象并用替换图像或图像序列替换它们。可使用本方法的典型应用是在体育事件的现场直播期间替换出现在围绕运动场或现场的其它区域的周界板上的广告图像。这允许当对不同的位置进行播出时传递出现在这些区域的多个广告内容。
背景技术
虚拟插入、增强现实和图像替换在过去的15年里已经作为研究领域。考虑到移动的对象遮挡将被替换的前景图像,已经提出了很多不同的方法以使虚拟图像尽可能看起来真实和自然。
现有技术可被分类为四大类:
·跟踪摄像机设备;
·地标识别;
·手动选择将被替换的对象或区域;
·通过图像分析装置预先识别将被代替的图像。
这些技术尤其是在现场直播中受到限制,导致它们变得不切实际或不可靠。图像替换被期望增加赞助或广告收益,因此,这种方法需要保证在各种情况下的可操作性,以使收益流可以是有保障的。然而,现有的解决方案具有较多的限制。
使用测量设备跟踪有基座的摄像机仅可以在现场进行并需要特定的设备和操作员。很多播出操作不能担负这样的跟踪开销。
用于报道比赛所需的任意摄像机视点不能确保任何地标在采集的图像上都是明显的。地标识别仅可被应用于某些摄像机和某些拍摄。
手动交互,尤其是替换视频图像上的区域将花费太长时间而不能用于直播事件。其强制延迟多秒,是不切实际的。
图像识别技术已经被用于识别采集的图像中的对象模式。动态广告的发展(在广告牌、周界板、显示屏......上部署全动态视频)使这些方法过时,因为将被替换的图像通常不能被预测。
大部分现有工作基于摄像机定位系统(跟踪头部、GPS、基于镜头的测量)和/或可视地标(通常是运动场的线和图)。
例如,以下是关于这种情况:
WO 97/00581 A1:需要至少三个地标可见
WO 2009/018135A1:使用3D对象模型适应的基于GPS的对象定位。
US7230653B1:基于使用GPS和镜头方向指示测量的跟踪和传感器遥测的方法;另外,这个专利从静态参考CAD模型识别图像,以致其用于LED板的替换是不切实际的。
一些方法包括手动对象识别过程,导致它们对于直播事件和多对象替换(诸如环绕周界板)是不切实际的:
US7689062B2:在源视频段中植入容器;这是纯后期处理过程,不能用于直播事件播出。
US2010067865A1:要求用户选择的输入区域,以致其对于在自动区域检测必须被实时执行时的直播事件不适用。
当周界板的内容是静态时的过去的方法与当前LED板的动态内容需求不匹配。所有这些方法需要对将被代替的静态图像预先识别:
US7116342B2描述了基于色彩分离模型以识别、存储和索引关注的区域的方法,并因此该方法不能用于周界板的动态内容。
在比赛期间,周界在摄像机的主视场中,为查看器找到最少相关性且在运动场外的区域的方法是完全不相关的;这是GB2416949A中公开的方法的情况,其专注于运动区域外和比赛本身之外的续发事件。
一些其它的方法不适用于视频图像背景对象,因为他们专注于前景。例如,WO2010067350A1识别视频流中的前景对象以添加虚拟插入图像。
在当今的用于新闻和体育的TV制作中使用的摄像机变得更快更轻。制作是越来越具移动性的,从笨重的基座中释放出来。在录制期间,摄像机位置和摄像机参数可以更频繁的改变,并且处理具有跟踪设备的固定的摄像机的成本和操作约束不再被接受。
越来越多数量的广告屏幕已经占据我们日常的环境。这些初始局限于静态内容的屏幕逐渐转变为滚动横幅并然后转变为动态地馈送电子内容。使用现有技术中公开的方法不可能替换电子动态内容。同时,电子屏幕的布置利用了TV馈送内部的最显著的广告空间。
图像替换需要对于直播、重播的或甚至是历史内容是可用的。这意味着如果在现场需要任何特定的硬件,则没有这件设备录制的存档文件完全不能用于图像替换。纯计算机视觉技术(不需要特定的现场硬件)的使用使图像替换适用于直播操作和/或后期制作和存档内容。
发明内容
本发明的目标是解决上面提出的缺点并提供用于将替换图像插入视频流而不需通过安装在摄像机基座上的昂贵的传感器设备采集和传输摄像机参数并且不需要直播环境的静态模型的方法。
本发明的另一个目标是提供可用于现场直播以及用于当只对已录制的图像具有访问权限时的后期制作的方法。所提出的方法适应于对具有动态内容的、出现在诸如周界板或广告牌的背景对象上的动态图像的替换。
本发明的另一个目标是提供用于实施该方法的计算机程序。计算机程序可在记录介质或在通信介质上进行提供。记录介质和通信介质中的每一个可以计算机可读方式给执行多种计算机代码的通用计算机系统提供计算机程序。计算机系统用以计算机可读方式提供的计算机程序执行过程以响应于计算机程序。
出于该目的,本发明的目标是提供一种方法,该方法通过创建立体3D视图来创建与人类的眼睛能看见的图像相同的视频图像的表示,就像人类的大脑所做的那样。使用图像的立体3D解释,所提出的方法可确定图像中将被替换的对象的实际位置和遮挡真实背景对象的可能的前景对象。
所公开的方法的主要优点是其不需要在摄像机基座上的昂贵的跟踪设备;其可被用于直播事件或录制的图像;以及其可替换动态或静态内容。
根据本公开的实施方式还描述了以下方面:
1)一种用于替换视频流中的对象的方法,包括以下步骤:
-接收来自至少一台摄像机的一个或多个图像;
-创建类似于人类立体表示的场景的立体视图;
-并行于步骤,分析所述至少一台摄像机的图像以提取摄像机位姿参数;
-使用所述立体视图和所述摄像机位姿参数计算视角;
-如果存在遮挡对象,则从所述摄像机的所述视角在透视图中识别所述遮挡对象;
-检测前景对象轮廓和目标对象轮廓;
-用前景对象轮廓创建遮挡掩模;
-使用从摄像机位置见到的目标图像并将所述遮挡掩模应用在所述目标图像上来合成替换图像;
-接收下一个图像并多次执行前述步骤。
2)根据项目1)所述的方法,其中,用至少两台摄像机的馈送来创建所述立体视图。
3)根据前述项目中的一个项目所述的方法,其中,所述立体视图至少包括关于前景对象、所述摄像机位姿参数和背景对象的深度表格。
4)根据前述项目中的一个项目所述的方法,其中,建立所述摄像机位姿参数包括下面的步骤:
-检测是否发生了对之前的图像的剪切;
-如果没发生剪切,使用来自所述之前的图像的背景和所述摄像机位姿参数,通过与所述之前的图像比较来计算所述背景的变化,并确定所述摄像机参数修改;
-使用新摄像机参数和背景信息计算至少一个前景对象的位移并针对每一个对象更新所述深度表格;
-如果发生了图像剪切,识别正确的摄像机;
-设置新摄像机位姿参数。
5)根据项目2)所述的方法,其中,所述立体视图的设置包括下面的步骤:
-依据无剪切应用场景下的项目4)所述的步骤设置所述两台摄像机中的每一台摄像机的所述摄像机位姿参数;
-使用PGM摄像机的视图确定关于所述PGM摄像机的背景和前景信息。
6)根据项目1)所述的方法,其中,当没有附加视频馈送可用时,所述立体视图的设置包括下面的步骤:
-接收所述摄像机位姿参数;
-检测当前图像和之前图像之间的剪切;
-如果没检测到剪切,检测背景和前景信息并更新深度表格;
-如果检测到剪切,接收PGM摄像机的下一个图像,使用摄像机位姿参数分析所述当前图像和所述下一个图像之间的差异并使用背景和前景信息来更新所述深度表格。
7)根据项目1)所述的方法,其中,来自所述摄像机的馈送以3D接收,并且其中,与所述对象相关的深度信息直接从摄像机的馈送获得。
8)一种用于在源图像或图像序列的电子表示可用时替换视频流中的对象的方法,所述方法包括以下步骤:
-接收来自至少一台摄像机的一个或多个图像;
-在来自所述摄像机的图像中检测所述源图像并提取摄像机参数;
-计算替换图像背景;
-通过计算所述源图像和其摄像机录像之间的像素差异来计算遮挡掩模;
-通过将所述遮挡掩模应用于替换图像来合成所述替换图像;
-接收下一个图像并多次执行前述步骤。
9)根据项目8)所述的方法,其中,在来自所述摄像机的图像中识别所述源图像,包括以下步骤:
-使用模式识别方法,在来自所述摄像机的图像中识别所述源图像和其透视;
-通过计算所述源图像和其透视校正的摄像机录像之间的像素差异来计算所述遮挡掩模;
-通过将所述遮挡掩模应用于替换图像的透视适应来合成替换图像;
-接收所述下一个图像并多次执行前述步骤。
10)一种用于替换视频流中的对象的计算机程序,所述计算机程序具有当所述程序在计算机上被运行时执行依据前述项目中的一个项目所述的方法的所有步骤的代码装置。
本发明的另一些优点将从在所附权利要求和下面的详细描述中所叙述的特征变得明显。
附图说明
现在,将参照附图详细描述本发明,在附图中:
图1是现场的典型的直播体育赛事制作的示意图。
图2是描述了当有两台摄像机的馈送可用时的图像替换过程的流程图。
图3是描述了当只有一台摄像机的馈送可用时的图像替换过程的流程图。
图4是描述了将被替换的目标图像的电子表示可用时的图像替换过程的流程图。
图5是描述了当摄像机馈送是3D时的图像替换过程的流程图。
图6是示出获得摄像机信息的过程的流程图。
图7是示出了当有两台摄像机的馈送可用时,用来识别前景和背景对象、位置和深度信息的立体视图的创建的流程图。
图8是示出了当只有一台摄像机的馈送可用时,用来识别前景和背景对象、位置和深度信息的立体视图的创建的流程图。
具体实施方式
参考图1,示出了在露天运动场或体育场中的现场的典型直播体育赛事制作。典型的足球比赛运动场1被示意性地表示,其中运动员a、b、c在上面移动。运动场被静态或动态广告图像可被显示在其上的周界板或电子广告牌2围绕。在直播现场的典型情况中,至少有两台主摄像机3、4连续地录制该比赛,同时另一台摄像机5(下文称为PGM摄像机)被制作导演进行实况转播。目标图像、周界板1、2的部分在每一台摄像机的视场内是可见的。左下的缩小图像示出摄像机3的视点;底下中间的缩小图像示出摄像机4视角;同时右下图像表示通过PGM摄像机所看到的图像。一些运动员a、b部分遮挡了目标图像,而在PGM的视场内由两台其它摄像机3、4看到的遮挡对象的仅一些部分是可见的。
本发明的简要概述的替换视频流中的对象的方法由以下步骤组成:
-创建场景的立体视图,
-从视频图像识别摄像机参数,
-识别图像中将被替换的对象,
-计算遮挡对象的轮廓,
-用替换对象的图像的掩模创建该图像,
-将所生成的图像叠加到原始图像上。
基于立体计算机视觉的方法以与处理人类立体视觉相似的方式创建摄像机图像的立体3D表示。然后其用透视表示法识别对象并在期望的内容内替换对象同时遵守新对象的视图深度。用这种方法,克服通常需要昂贵的摄像机跟踪设备的现有技术约束是可能的。另外,该方法可在直播或在后期制作环境中操作,并且其对图像内部的动态内容起作用。
立体3D表示以两种不同的方式构成:
当前图像的立体3D人类表示由来自至少两台摄像机的馈送构成。该方法使用摄像机三角剖分算法。
在后期制作的情况中或当只有一台摄像机的馈送可用时,立体3D表示通过使用图像分析技术重构空间环境获得。
使用图像的立体3D解释,该方法确定图像中将被替换的对象的位置和遮挡背景对象的可能的前景对象。
预测图像和真实图像之间的像素差异的处理确定放置掩模以合成替换图像的区域。
下面视频流中的对象替换的方法被提出:
在现场具有至少一个双TV馈送(两台或多于两台摄像机)以构造立体3D表示和深度表格用于计算放置在将被替换的对象的前景中的其它对象的遮挡掩模。此处本方法描述了最小要求的两台摄像机,但当更多台摄像机可用时该方法也适用。该方法将结合图2进一步描述。
插入立体视图并创建单一馈送或一台摄像机的图像的同样的对象表格和深度表格。该方法结合图3描述。
附加的方法使用预先计算的对象的图像来识别。该方法基于实际在图像上的内容和没有遮挡对象时应该在其上的内容之间的差异。该方法处理将被替换的对象的动态性质。其原则上类似于静态图像替换,但是其中静态图像每一字段或帧进行改变。
第四种方法包括匹配将被替换的源动态图像与摄像机录制的图像以确定将被替换的像素组成。最后,该过程还适合高端摄像机的情况(直播或重播):
随着3D摄像机内容输入,摄像机的立体信息被直接变成立体表示。
本发明适用于任何摄像机格式。这包括消费者格式以及广播格式(SD、HD、4K或将来的其它格式)。格式中的更大的像素将导致更清晰的转换。
在图中描述的几个过程被嵌入端到端工作流中,逐个图像(逐个帧或逐个字段)分析视频流并创建用于几个摄像机和对象的参考基准。
现在,我们将描述该方法的不同步骤、其不同过程和计算。
结合上面叙述的不同方法,一些通用概念适用于本发明的不同变化并将被简要描述。
立体以及其等效双目的概念是指表示场景或事件的不同视角的两个输入或多于两个的输入,那些输入来自摄像机或其他图像源。本发明的需要两台摄像机的实施方案同样适用于任何更大数量的摄像机。
根据所选择的方法将需要不同的元件以实施该方法。这些中的第一个是摄像机识别,以便建立摄像机表格,其中,每当摄像机被识别时,其参数,主要是其坐标(x,y,z)和下面的参数平移、倾斜、缩放和聚焦中的至少一些被存储。摄像机的参数从所分析的图像获得而不从诸如与摄像机基座相关联的传感器的外部信号获得。现有的计算机视觉检测技术被用于确定摄像机位置(x,y,z)和其参数。检测技术基于几何元素识别,线、圆、角、角度、表面和不变的点。为使所识别的元素与其图像表示相匹配建立的透视变换矩阵确定所期望的摄像机参数。
使用已知的摄像机三角剖分的方法,对象被检测并被置于场表示中。录制同一个对象的两台不同的摄像机将提供揭示对象位置的不同图像。
在这个意义上,摄像机三角剖分过程类似于人类立体视觉的处理,基于两只眼睛之间的不同视角为头脑提供立体凸现或深度信息。比较来自两台不同摄像机的两个图像允许从两个图像中提取对象并确定每一个对象的轮廓、内部像素和到摄像机的距离。
当图像被接收和处理时,使用已知的背景检测算法,通过计算同一序列的两个连续图像之间的差异来检测背景区域。用于本发明目的的适用于背景检测的合适方法在下面的文档中被公开:“背景减法技术:综述(Background subtraction techniques:areview)”,关于系统、人类和控制论的2004 IEEE国际会议,0-7803-8566-7/04/2004IEEE。
考虑到摄像机移动检测,序列的两个连续图像之间的表示的差异是被广泛地研究的领域,提供了很多技术和算法,如在以下文献中总结的:“视频拍摄变化检测方法的性能特征(Performance characterization of video-shot-change detection methods)”IEEE视频技术的电路和系统会刊,卷10,编号1,2000年2月。
一旦摄像机参数在两个图像和所检测的背景之间被更新,该图像的剩余像素形成背景对象。两个图像之间的前景对象的差分分析被应用并用来更新对象的3D模型和到摄像机的距离。
在下面的叙述中,还将用到深度表格的概念。如在本发明中所使用的,深度表格是用于当前图像和摄像机的相同的或等效的z值的像素集合。针对特定的摄像机图像,具有相同深度的像素被分组到对象,由此创建带有关联到对象的深度的对象表格。
传统地,像素的深度值被转换成可被编码为0-255或甚至更大的值的灰度水平。深度表格实际上是由相关联的真实图像的灰度值组成的图像,越暗灰度值越大。
由立体或3D摄像机产生的深度表格(或z-表格)可被导入深度表格。同样适用于在前景检测过程中识别的前景对象。
本发明的描述有时涉及立体表示或场景的立体视图。这是如从摄像机看到的场景的表示,包括从该视角可见的所有对象。该对象被表示为距离摄像机的距离、组成对象的像素集、场中的位置及其建模和动态参数。
因此立体表示包括关于所有前景对象、摄像机参数和背景对象的深度表格的集合。
对于将被替换的对象或区域,多余的参数被保留,包括如从摄像机所见的区的3D精确几何模型。
对于在替换过程结束时替换图像的部分,引入了替换掩模的概念。当在前景中的对象部分遮蔽了背景中将被替换的区域时,遮挡将发生。
基于立体表示计算遮挡。遮挡掩模局限于将被替换的对象的摄像机可见的部分,根据如由摄像机观测到的对象的3D模型的外部轮廓计算。这被称为替换掩模。
对于存储在立体视图中的每一个单一对象,包含在替换掩模中的对象的部分实际上遮挡了将被替换的对象。因此,遮挡掩模是遮挡对象与替换掩模的交叉部分的总和。
该总和以到摄像机的下降的距离计算(排序)。这类似于成像技术中的层的应用。将分层的对象应用于掩模的顶部同时构造了掩模轮廓和掩模像素。
图2涉及当两台摄像机的馈送可用时的图像替换过程;这是在现场的直播情况。在事件之前,包括预设摄像机位置或摄像机轴以防移动摄像机诸如移动支架凸轮的摄像机图被获得并被引入系统的初始设置。在整个事件期间,系统接收由两台主摄像机3、4产生的图像。参考图2,有针对每一个图像进行处理的循环(步骤101至105)。
该循环开始于在步骤102接收来自每一台摄像机3、4的图像以及在步骤103并行接收来自PGM摄像机5的图像。
在步骤301,用摄像机3和摄像机4的图像创建场景的透视图,其类似于人类双目视觉的表示。用于创建透视图的过程将参考图6被进一步描述。
并行于步骤301,在步骤1031分析P GM摄像机5的图像以提取摄像机参数(或摄像机位姿),允许确定PGM摄像机的位置(x,y,z)以及其方向(平移、倾斜、缩放和聚焦)。
在步骤1021使用立体视图和PGM摄像机位姿参数计算PGM摄像机的视角。
从摄像机位置,在步骤301创建透视图中被识别为可能的遮挡的对象并且在步骤1022重新计算这些对象和创建每一个对象的深度表格。深度表格包括所检测到的对象的轮廓信息以及关于摄像机视野中的每一个对象到摄像机的距离(深度或z-表格)。
然后,目标图像和前景对象在步骤1023中被识别。在步骤1024中前景对象轮廓信息还被用于计算遮挡掩模。该掩模是将被替换的对象的表示(3D图像),减去视场中比该对象具有更低的z的对象。
然后,在步骤1032使用PGM摄像机的位置计算替换图像背景并且将遮挡掩模应用于其上,因此在步骤104图像替换对象作为附加层被应用于PGM摄像机图像。然后,过程在步骤105以下一个图像继续。
图3涉及当只有一台摄像机的馈送可用时的图像替换过程。例如,这可以是在广播公司工作室接收的直播视频或录制的事件。该过程类似于之前的结合图2所描述的情况,但在以下两个步骤中不同:
由于只有一台摄像机的馈送可用,前面的双馈送过程的步骤102被移除。图2中的创建透视图的步骤301被替换为步骤301bis,其用从单一馈送接收的图像创建透视图。过程301bis将结合图8进一步描述。其它步骤与图2中的完全相同。
图4描述了参考图2所描述的基本图像替换过程的可选过程的流程图。图4涉及其中将被替换的图像的电子表示可用的情况。在该情况中,不需要创建对象深度表格以及计算轮廓信息和识别目标和前景对象,因此避开了图2和3中的步骤102、1021、1022、1023和301。在步骤1025目标图像的真实视图最为图像中对应于目标的区域被处理。然后目标图像背景根据源图像与PGM摄像机参数,摄像机位姿的组合进行计算(步骤1026)。在步骤1024所计算的可应用的掩模对应于从步骤1025获得的目标图像的摄像机录像和在步骤1026获得的目标图像背景之间的像素差异。
当将被替换的图像的电子表示可在摄像机图像中被识别时,在图4中描绘的过程的简化发生。使用计算机视觉模式识别,源图像可被识别并且其在图中的放置和透视可被确定。由于源和替换图像的透视校正与从摄像机图像中检测到的是相同的,所以不需要计算摄像机参数。结果是透视的替换图像与遮挡掩模一起的合成,作为被识别的图像与其透视校正的源之间的像素差计算。
参考图5,摄像机的馈送已经是3D的。每一台摄像机提供左图像、右图像和深度表格。图像替换过程使用直接从摄像机馈送接收的该立体信息而得到简化。过程非常类似于参考图2所描述的过程,不同点在于其运行用于左和右两个图像,如替换图2中的步骤103的步骤103bis所示。第二个不同点在于,关于遮挡对象的深度信息被从摄像机接收并且因此不需要计算深度信息。所有其它步骤与参考图2描述的步骤完全相同。
参考图6,获得摄像机信息的过程被细节化。对于在步骤102或103获得的每一个图像,确定是否发生了之前的图像的剪切。如果之前的图像和当前图像之间没有剪切,则过程是纯差分,其计算与之前的图像相关的变化。如果之前的图像没有发生剪切,来自之前的图像的背景信息和PGM摄像机设置被用于在步骤204计算背景变化以及确定摄像机参数修改(如果有的话)。一旦适应的摄像机参数已经被计算,新的摄像机参数在步骤206被存储。通过使用新摄像机参数和背景信息,前景对象的位移在步骤2051被计算并且对于每一个前景对象,深度表格在步骤2052被更新。
如果发生了图像剪切,摄像机表格用来在当前视图和所存储的对应于现有的过去摄像机位置的视图之间识别可能的匹配。在步骤202,模式识别技术,尤其是对于场线或已知元素,被用于找到正确的匹配并在步骤203识别正确的摄像机。可选地,用户输入可被请求以用参考点确定的方法提供更好和更快的匹配。
步骤203的输出是为设置新摄像机位姿参数,(步骤206)。
图7使用两台可用的摄像机的馈送处理用来识别前景和背景对象、位置和深度信息的透视3D视图的创建301。
第一步骤是在没有剪切的应用场景中使用过程201设置第一和第二摄像机的摄像机位姿,因为这两台摄像机始终可用并产生连续馈送。
当这些摄像机位姿被设置后,PGM视图以与针对图6中的这些过程描述的相同的方式被用于确定PGM摄像机的背景和前景信息(步骤204、2051和2052)。
图8描述了在没有双馈送可用的情况下作为过程301(在图7中描述的)的变型的、设置透视图的过程301bis。
该过程开始于获得摄像机位姿201。剪切检测此时作为步骤201的一部分已经被执行。
当在之前的和当前的图像之间没有检测到剪切时,背景检测204和前景分析2051过程步骤用来更新深度表格2052。这些步骤与图6描述的步骤相同。
当检测到剪切时,过程得到下一个图像(步骤103)。使用摄像机位姿信息和当前和下一个图像之间的差异分析,使用背景204和前景2051构成来重构深度表格2052。
立体视图被设置302为摄像机位姿201、背景信息204、前景信息2051和深度表格2052的结果。
上面描述的方法和过程也适用于本机3D视频馈送可用情况下的高端摄像机。当视频信号已经是3D时,左和右图像可与深度表格或z-空间一起可用。图像替换方法以缓解实现图像替换需要的计算资源的几种方式利用该附加信息。通过类推,两台摄像机的双馈送是可用的,被左和右图像替换并且深度信息被嵌入视频信号,或者如果不是,其可通过左图像和右图像之间的差异分析被提取。
当视频录制只采用2D时,存在3D转换技术用于渲染3D视频信号、用左眼采用初始馈送并构造右眼视频信号。该过程在处理信号时增加了几秒钟的延迟但是简化了图形替换并因此适合于将本发明的方法的对象应用于录制的视频。
上面描述的方法的步骤可使用硬件、软件或两者结合被执行。如果使用软件执行该过程步骤,具有过程步骤的序列的计算机程序可被安装在内置在专用硬件中的计算机的存储器中,或安装在执行多种过程的通用计算机上。计算机程序可被预先记录在记录介质中。然后计算机程序可被安装在计算机上。计算机程序可经由诸如局域网(LAN)或因特网的网络被接收并然后安装在诸如硬盘的内部记录介质上。
以前述方式,用于在直播或录制的视频流中的对象替换的方法已经被公开。当本发明已经参考特定实施方案被描述时,该描述说明了本发明且不被理解为限制本发明。本领域技术人员可容易想到各种修改,而不脱离由所附权利要求限定的本发明的范围。
Claims (16)
1.一种用于替换视频流中的对象的方法,包括:
接收来自至少一台摄像机的一个或多个图像;
分析所述一个或多个图像以提取摄像机位姿参数,所述摄像机位姿参数至少包括所述至少一台摄像机的坐标x、y和z及方向;
使用通过所述至少一台摄像机观看的对象的深度表格创建立体视图,其中,所述深度表格定义从摄像机镜头沿着z轴到所述至少一台摄像机的视场中的每一个对象的距离,所述深度表格包括具有z值的多个像素,其中像素基于所述z值被分组到对象;
使用所述立体视图和所述深度表格识别遮挡背景对象的前景对象;
检测前景对象轮廓;
用前景对象轮廓创建遮挡掩模;
使用所述摄像机位姿参数计算替换图像;以及
将所述遮挡掩模应用于所述替换图像。
2.根据权利要求1所述的方法,其中,用从至少两台摄像机接收的图像来创建所述立体视图。
3.根据权利要求1所述的方法,其中,建立所述摄像机位姿参数包括:
检测在当前图像与之前的图像之间是否发生剪切;
其中,如果没发生剪切,
将所述之前的图像的背景信息和摄像机位姿参数用在所述当前图像与所述之前的图像的比较中,以计算背景变化并确定摄像机位姿参数修改;
根据所述背景变化计算背景信息,并根据所述摄像机位姿参数修改计算新摄像机位姿参数,以及
使用所述背景信息和所述新摄像机位姿参数计算前景对象的位移,并针对所述前景对象更新所述深度表格;
其中,如果发生了剪切,
根据所述当前图像和存储的图像视图之间的可能匹配来识别正确的摄像机,以及;
设置所述新摄像机位姿参数。
4.根据权利要求1所述的方法,其中,创建所述立体视图包括:
将之前的图像的背景信息和摄像机位姿参数用在当前图像与所述之前的图像的比较中,以计算背景变化并确定摄像机位姿参数修改,从而计算新摄像机位姿参数;
使用所述背景信息和所述新摄像机位姿参数计算前景对象的位移;并针对每个前景对象更新所述深度表格。
5.根据权利要求1所述的方法,其中,当只有单一摄像机可用时,创建所述立体视图包括:
接收所述摄像机位姿参数;
检测当前图像和之前的图像之间的剪切;
如果没检测到剪切,
检测背景和前景信息并更新深度表格;以及
如果检测到剪切,
接收下一个图像,以及使用所述摄像机位姿参数分析所述当前图像和所述下一个图像之间的差异并使用背景和前景信息来更新深度表格。
6.根据权利要求1所述的方法,其中,来自所述至少一台摄像机的所述一个或多个图像形成以3D接收的馈送,并且其中,与所述对象相关的深度信息直接从所述馈送获得。
7.根据权利要求1所述的方法,还包括替换过程,其中所述替换过程包括:
将所述一个或多个图像中的图像中的将被替换的源图像与所述源图像的可用表示相匹配;
计算所述源图像的所述可用表示和将被替换的所述源图像之间的差异,以及
提取摄像机位姿参数。
8.根据权利要求1所述的方法,还包括:
当将被替换的源图像的表示不可用时,使用模式识别从所述一个或多个图像中的图像识别所述源图像。
9.一种用于替换视频流中的对象的系统,所述系统包括被配置为执行以下操作的计算机:
接收来自至少一台摄像机的一个或多个图像;
分析所述一个或多个图像以提取摄像机位姿参数,所述摄像机位姿参数至少包括所述至少一台摄像机的坐标x、y和z及方向;
使用通过所述至少一台摄像机观看的对象的深度表格创建立体视图,其中,所述深度表格定义从摄像机镜头沿着z轴到所述至少一台摄像机的视场中的每一个对象的距离,并且其中所述深度表格包括具有z值的多个像素,其中像素基于所述z值被分组到对象;
使用所述立体视图和所述深度表格识别遮挡背景对象的前景对象;
从所识别的前景对象中检测前景对象轮廓;
用所述前景对象轮廓创建遮挡掩模;
使用所述摄像机位姿参数计算替换图像;以及
将所述遮挡掩模应用于所述替换图像。
10.根据权利要求9所述的系统,其中,所述立体视图用从至少两台摄像机接收的图像来创建。
11.根据权利要求9所述的系统,其中,建立所述摄像机位姿参数包括:
检测在当前图像与之前的图像之间是否发生剪切;
其中,如果没发生剪切,
将所述之前的图像的背景信息和摄像机位姿参数用在所述当前图像与所述之前的图像的比较中,以计算背景变化并确定摄像机位姿参数修改;
根据所述背景变化计算背景信息,并根据所述摄像机位姿参数修改计算新摄像机位姿参数,以及
使用所述背景信息和所述新摄像机位姿参数计算前景对象的位移,并针对每个对象更新所述深度表格;并且
其中,如果发生了剪切,
根据所述当前图像和存储的图像视图之间的可能匹配来识别正确的摄像机,以及;
设置所述新摄像机位姿参数。
12.根据权利要求9所述的系统,其中,创建所述立体视图包括:
将之前的图像的背景信息和摄像机位姿参数用在当前图像与所述之前的图像的比较中,以计算背景变化并确定摄像机位姿参数修改,从而计算新摄像机位姿参数;
使用所述背景信息和所述新摄像机位姿参数计算前景对象的位移;并针对每个对象更新所述深度表格。
13.根据权利要求9所述的系统,其中,当单一摄像机可用时,创建所述立体视图包括:
接收所述摄像机位姿参数;以及
检测当前图像和之前的图像之间的剪切;
其中,如果没检测到剪切,
检测背景和前景信息并更新深度表格;并且
其中,如果检测到剪切,
接收下一个图像,以及
使用所述摄像机位姿参数分析所述当前图像和所述下一个图像之间的差异,并使用背景和前景信息来更新深度表格。
14.根据权利要求9所述的系统,其中,来自所述至少一台摄像机的所述一个或多个图像形成以3D接收的馈送,并且其中,对象的深度信息直接从所述至少一台摄像机的馈送获得。
15.根据权利要求9所述的系统,其中所述计算机还被配置用于替换过程,其中所述替换过程包括:
将所述一个或多个图像中的图像中的将被替换的源图像与所述源图像的可用表示相匹配;
计算所述源图像的所述可用表示和将被替换的所述源图像之间的差异,以及
提取摄像机位姿参数。
16.根据权利要求9所述的系统,其中所述计算机还被配置成:
当将被替换的源图像的表示不可用时,使用模式识别从所述一个或多个图像中的图像识别所述源图像。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2013/000318 WO2014135910A1 (en) | 2013-03-08 | 2013-03-08 | Method of replacing objects in a video stream and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105191287A CN105191287A (zh) | 2015-12-23 |
CN105191287B true CN105191287B (zh) | 2019-06-21 |
Family
ID=48095926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380074265.XA Expired - Fee Related CN105191287B (zh) | 2013-03-08 | 2013-03-08 | 替换视频流中的对象的方法及计算机程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10205889B2 (zh) |
EP (2) | EP3518528A1 (zh) |
CN (1) | CN105191287B (zh) |
RU (1) | RU2612378C1 (zh) |
WO (1) | WO2014135910A1 (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9426451B2 (en) * | 2013-03-15 | 2016-08-23 | Digimarc Corporation | Cooperative photography |
CN104735466B (zh) * | 2015-03-31 | 2018-04-10 | 北京奇艺世纪科技有限公司 | 一种更换视频中商标图案的方法及装置 |
US20170006219A1 (en) | 2015-06-30 | 2017-01-05 | Gopro, Inc. | Image stitching in a multi-camera array |
US10609307B2 (en) * | 2015-09-28 | 2020-03-31 | Gopro, Inc. | Automatic composition of composite images or videos from frames captured with moving camera |
US10152802B2 (en) * | 2016-03-31 | 2018-12-11 | Radiant Geospatial Solutions Llc | Method and apparatus for imaging the silhouette of an object occluding a light source using a synthetic aperature |
DE102016119640A1 (de) | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System zur Erzeugung angereicherter Bilder |
DE102016119639A1 (de) | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen |
DE102016119637A1 (de) | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | Fernsehübertragungssystem zur Erzeugung angereicherter Bilder |
WO2018133011A1 (zh) * | 2017-01-19 | 2018-07-26 | 深圳市奥拓电子股份有限公司 | 一种视频转播方法及系统 |
CN106920253A (zh) * | 2017-02-10 | 2017-07-04 | 华中科技大学 | 一种基于遮挡分层的多目标跟踪方法 |
JP6944272B2 (ja) * | 2017-04-25 | 2021-10-06 | キヤノン株式会社 | 動体検出装置およびその制御方法 |
RU2672144C1 (ru) * | 2017-07-17 | 2018-11-12 | Александр Константинович Еремея | Способ оптической коррекции пространственной формы помещений |
FR3071123B1 (fr) * | 2017-09-14 | 2019-09-27 | Jean-Luc AFFATICATI | Methode de masquage d'objets dans un flux video |
JP2021511729A (ja) * | 2018-01-18 | 2021-05-06 | ガムガム インコーポレイテッドGumgum, Inc. | 画像、又はビデオデータにおいて検出された領域の拡張 |
CN110326028A (zh) * | 2018-02-08 | 2019-10-11 | 深圳市大疆创新科技有限公司 | 图像处理的方法、装置、计算机系统和可移动设备 |
CA3092565C (en) | 2018-03-29 | 2021-07-20 | Mitsubishi Electric Corporation | Image processing device, image processing method, and monitoring system |
US11006154B2 (en) * | 2018-04-04 | 2021-05-11 | DISH Technologies L.L.C. | Selected replacement of digital imagery portions using augmented reality |
US10902626B2 (en) | 2018-04-11 | 2021-01-26 | International Business Machines Corporation | Preventing intrusion during video recording or streaming |
EP3831049B1 (en) * | 2018-07-27 | 2022-09-07 | Appario Global Solutions (AGS) AG | Method and system for dynamic image content replacement in a video stream |
CN109151489B (zh) * | 2018-08-14 | 2019-05-31 | 广州虎牙信息科技有限公司 | 直播视频图像处理方法、装置、存储介质和计算机设备 |
EP3850825B1 (en) * | 2018-09-13 | 2024-02-28 | Appario Global Solutions (AGS) AG | Method and device for synchronizing a digital photography camera with alternative image content shown on a physical display |
CN109729429B (zh) * | 2019-01-31 | 2021-08-17 | 百度在线网络技术(北京)有限公司 | 视频播放方法、装置、设备和介质 |
FR3093886B1 (fr) | 2019-03-14 | 2022-04-01 | Affaticati Jean Luc | Méthode de masquage d’objets dans un flux vidéo |
CN110121034B (zh) * | 2019-05-09 | 2021-09-07 | 腾讯科技(深圳)有限公司 | 一种在视频中植入信息的方法、装置、设备及存储介质 |
MX2021015071A (es) | 2019-06-14 | 2022-01-18 | Ericsson Telefon Ab L M | Un metodo para proporcionar contenido de video a un estudio de produccion al seleccionar un flujo de video de entrada a partir de una pluralidad de camaras de video inalambricas, asi como un controlador de flujo correspondiente. |
CN110677559B (zh) * | 2019-09-10 | 2021-07-09 | 深圳市奥拓电子股份有限公司 | 一种区别显示转播视频的方法、装置及存储介质 |
DE102020108910B3 (de) * | 2020-03-31 | 2021-07-22 | Sick Ag | Austausch einer Kamera |
CN111491124B (zh) * | 2020-04-17 | 2023-02-17 | 维沃移动通信有限公司 | 视频处理方法、装置及电子设备 |
US11776578B2 (en) | 2020-06-02 | 2023-10-03 | Trapelo Corp. | Automatic modification of values of content elements in a video |
CN111861561B (zh) * | 2020-07-20 | 2024-01-26 | 广州华多网络科技有限公司 | 广告信息定位、展示方法及其相应的装置、设备、介质 |
KR20240049611A (ko) * | 2021-09-27 | 2024-04-16 | 바이트댄스 아이엔씨 | 비디오 처리를 위한 방법, 장치 및 매체 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001035641A1 (en) * | 1999-11-08 | 2001-05-17 | Mirage Systems, Inc. | Method and apparatus for real time insertion of images into video |
CN1675937A (zh) * | 2002-08-20 | 2005-09-28 | 江良一成 | 生成立体图像的方法和装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL108957A (en) * | 1994-03-14 | 1998-09-24 | Scidel Technologies Ltd | Video sequence imaging system |
JPH11507796A (ja) | 1995-06-16 | 1999-07-06 | プリンストン ビデオ イメージ,インコーポレイテッド | テレビの生放送中に静止画像と動画像を挿入するためのシステムおよび方法 |
US5917553A (en) * | 1996-10-22 | 1999-06-29 | Fox Sports Productions Inc. | Method and apparatus for enhancing the broadcast of a live event |
US7230653B1 (en) | 1999-11-08 | 2007-06-12 | Vistas Unlimited | Method and apparatus for real time insertion of images into video |
US7349568B2 (en) * | 2001-08-30 | 2008-03-25 | Sanyo Electric Co., Ltd. | Method and apparatus for handling stereoscopic images utilizing parallax images |
US7116342B2 (en) | 2003-07-03 | 2006-10-03 | Sportsmedia Technology Corporation | System and method for inserting content into an image sequence |
EP1757087A4 (en) * | 2004-04-16 | 2009-08-19 | James A Aman | AUTOMATIC VIDEO RECORDING OF EVENTS, PURSUIT AND CONTENT PRODUCTION SYSTEM |
SG119229A1 (en) | 2004-07-30 | 2006-02-28 | Agency Science Tech & Res | Method and apparatus for insertion of additional content into video |
WO2008010203A2 (en) | 2006-07-16 | 2008-01-24 | Seambi Ltd. | System and method for virtual content placement |
US8077981B2 (en) | 2007-07-27 | 2011-12-13 | Sportvision, Inc. | Providing virtual inserts using image tracking with camera and position sensors |
WO2009079560A1 (en) * | 2007-12-17 | 2009-06-25 | Stein Gausereide | Real time video inclusion system |
US9137518B2 (en) * | 2008-01-29 | 2015-09-15 | Thomson Licensing | Method and system for converting 2D image data to stereoscopic image data |
US8228327B2 (en) * | 2008-02-29 | 2012-07-24 | Disney Enterprises, Inc. | Non-linear depth rendering of stereoscopic animated images |
US8477246B2 (en) | 2008-07-11 | 2013-07-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems, methods and devices for augmenting video content |
IL195848A0 (en) | 2008-12-10 | 2009-09-01 | Artivision Technologies Ltd | A method and device for processing video frames |
US8947534B2 (en) * | 2009-06-11 | 2015-02-03 | Google Technology Holdings LLC | System and method for providing depth imaging |
US20110222757A1 (en) * | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
US8649592B2 (en) * | 2010-08-30 | 2014-02-11 | University Of Illinois At Urbana-Champaign | System for background subtraction with 3D camera |
EP2643972A4 (en) * | 2010-11-24 | 2016-03-30 | Stergen High Tech Ltd | IMPROVED METHOD AND SYSTEM FOR THE CREATION OF THREE-DIMENSIONAL (3D) VISUALIZABLE VIDEO FROM A SINGLE VIDEO STREAM |
GB2489674A (en) * | 2011-03-29 | 2012-10-10 | Sony Corp | 3D image generation |
US9497435B2 (en) * | 2011-08-15 | 2016-11-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Encoder, method in an encoder, decoder and method in a decoder for providing information concerning a spatial validity range |
US20130063556A1 (en) * | 2011-09-08 | 2013-03-14 | Prism Skylabs, Inc. | Extracting depth information from video from a single camera |
-
2013
- 2013-03-08 RU RU2015139234A patent/RU2612378C1/ru not_active IP Right Cessation
- 2013-03-08 US US14/773,614 patent/US10205889B2/en not_active Expired - Fee Related
- 2013-03-08 WO PCT/IB2013/000318 patent/WO2014135910A1/en active Application Filing
- 2013-03-08 EP EP19156073.9A patent/EP3518528A1/en not_active Withdrawn
- 2013-03-08 CN CN201380074265.XA patent/CN105191287B/zh not_active Expired - Fee Related
- 2013-03-08 EP EP13716360.6A patent/EP2965506A1/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001035641A1 (en) * | 1999-11-08 | 2001-05-17 | Mirage Systems, Inc. | Method and apparatus for real time insertion of images into video |
CN1675937A (zh) * | 2002-08-20 | 2005-09-28 | 江良一成 | 生成立体图像的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US10205889B2 (en) | 2019-02-12 |
WO2014135910A1 (en) | 2014-09-12 |
US20160028968A1 (en) | 2016-01-28 |
CN105191287A (zh) | 2015-12-23 |
EP3518528A1 (en) | 2019-07-31 |
RU2612378C1 (ru) | 2017-03-09 |
EP2965506A1 (en) | 2016-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105191287B (zh) | 替换视频流中的对象的方法及计算机程序 | |
US10593104B2 (en) | Systems and methods for generating time discrete 3D scenes | |
US20200234397A1 (en) | Automatic view mapping for single-image and multi-view captures | |
JP4938093B2 (ja) | 2d−to−3d変換のための2d画像の領域分類のシステム及び方法 | |
JP6669063B2 (ja) | 画像処理装置および方法 | |
US20190019299A1 (en) | Adaptive stitching of frames in the process of creating a panoramic frame | |
US20140009462A1 (en) | Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects | |
US20200258309A1 (en) | Live in-camera overlays | |
WO2017183470A1 (ja) | 三次元再構成方法 | |
WO2011029209A2 (en) | Method and apparatus for generating and processing depth-enhanced images | |
CA2668941A1 (en) | System and method for model fitting and registration of objects for 2d-to-3d conversion | |
WO2004053591A1 (en) | Image capture and and display and method for generating a synthesized image | |
CN104735435B (zh) | 影像处理方法及电子装置 | |
JP7285834B2 (ja) | 三次元再構成方法および三次元再構成装置 | |
JP6683307B2 (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
CN101729920A (zh) | 一种自由视角立体视频显示方法 | |
Sharma et al. | A flexible architecture for multi-view 3DTV based on uncalibrated cameras | |
JP2007053621A (ja) | 画像生成装置 | |
JP6392738B2 (ja) | 情報取得装置、情報取得方法及び情報取得プログラム | |
Inamoto et al. | Immersive evaluation of virtualized soccer match at real stadium model | |
KR101841750B1 (ko) | 매칭 정보에 의한 입체 영상 보정 장치 및 그 방법 | |
JP5906165B2 (ja) | 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
KR20140051035A (ko) | 영상 부호화 방법 및 장치 | |
Jung et al. | Visual discomfort visualizer using stereo vision and time-of-flight depth cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20161019 Address after: Swiss Martini Applicant after: Di Kit Arena AG Address before: French Divonne les Bains Applicant before: AFFATICATI JEAN-LUC Applicant before: JACQUEMET JEAN PHILIPPE |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190621 Termination date: 20210308 |
|
CF01 | Termination of patent right due to non-payment of annual fee |