CN112489182A - 用于生成图像的系统、方法和存储介质 - Google Patents

用于生成图像的系统、方法和存储介质 Download PDF

Info

Publication number
CN112489182A
CN112489182A CN202011164759.5A CN202011164759A CN112489182A CN 112489182 A CN112489182 A CN 112489182A CN 202011164759 A CN202011164759 A CN 202011164759A CN 112489182 A CN112489182 A CN 112489182A
Authority
CN
China
Prior art keywords
image
region
data corresponding
dimensional shape
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011164759.5A
Other languages
English (en)
Inventor
梅村直树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN112489182A publication Critical patent/CN112489182A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

本发明涉及一种用于生成图像的系统、方法和存储介质。为了使得可以在抑制多视点图像数据的传输时的网络负荷的同时、获得将摄像场景内存在的构造物等三维地表现成与现实构造物相同的自然的虚拟视点图像。根据本发明的生成装置基于与对象相对应的三维形状数据、与构造物相对应的三维形状数据、与至少不同于对象和构造物的背景相对应的背景数据、以及表示虚拟视点的信息,来生成虚拟视点图像。

Description

用于生成图像的系统、方法和存储介质
(本申请是申请日为2018年12月13日、申请号为2018800286768、发明名称为“用于生成虚拟视点图像的设备、系统、方法和存储介质”的申请的分案申请。)
技术领域
本发明涉及用于基于从多个视点位置拍摄到的多视点图像来生成来自虚拟视点的图像的技术。
背景技术
近年来,虚拟视点图像技术越来越受到关注,该虚拟视点图像技术通过使用多个真实照相机所拍摄到的图像来再现来自虚拟地布置在三维空间内的实际上不存在的照相机(虚拟照相机)的图像。根据虚拟视点图像技术,例如,使得可以从各种角度观看诸如足球或篮球等的比赛中的精彩场景,因此可以给予用户更强烈的临场感。
为了生成虚拟视点图像,可能需要多个真实照相机所拍摄到的图像数据向图像处理服务器等的汇集、以及该服务器等中的三维模型(对象的形状数据)的生成和绘制处理。
作为用于估计对象的三维形状的方法,已知有被称为“视体交叉法(VisualHull)”的方法(PTL1)。
现有技术文献
专利文献
专利文献1:日本特开2014-10805
发明内容
发明要解决的问题
利用用以估计三维形状的传统技术,例如,担心针对摄像范围中存在的诸如足球球门等的作为静止物体的构造物不能生成三维模型。原因是作为三维形状的估计目标的对象是作为摄像范围内的移动物体的诸如人物等的前景部分。也就是说,将诸如足球球门等的处于静止状态的构造物作为背景进行处理,因此该构造物不是三维模型的生成目标。在未生成构造物的三维模型的状态下生成虚拟视点图像的情况下,在人物等的后方二维地表现没有正在移动的构造物等,使得构造物等被表现成仿佛粘贴在地面等上一样,这样得到远远不是实际摄像场景的视频图像表现。在图1中示出其示例。图1是足球的一个场景的虚拟视点图像,并且该图像是这样的:足球球门(包括球门柱、球门横木和球门网的所有要素)粘贴到草坪场地上。此外,图13B是相扑的一个场景的虚拟视点图像,并且该图像是这样的:被推出相扑台并从相扑台摔下的相扑力士躺在相扑台上。
本发明是有鉴于上述问题而作出的,并且其目的是使得可以获得将甚至作为静止物体的构造物等也三维地表现成变得接近于实际构造物的自然的虚拟视点图像。
用于解决问题的方案
根据本发明的一种系统,包括:第一生成单元,其被配置为基于通过从多个方向的摄像而获得的多个拍摄图像,来生成将构造物的区域和对象的区域表现为与其它区域有所区别的第一图像;第二生成单元,其被配置为基于通过从多个方向的摄像而获得的多个拍摄图像,来生成将所述对象的区域表现为与其它区域有所区别的第二图像;发送单元,其被配置为发送所述第一生成单元所生成的所述第一图像、以及所述第二图像;第一获取单元,其被配置为基于从所述发送单元发送来的所述第一图像和所述第二图像这两者,来获取与所述对象相对应的三维形状数据;第二获取单元,其被配置为基于从所述发送单元发送来的所述第一图像,来获取与所述构造物相对应的三维形状数据;第三获取单元,其被配置为获取与至少不同于所述对象和所述构造物的背景的区域相对应的背景数据;第四获取单元,其被配置为获取表示虚拟视点的信息;以及第三生成单元,其被配置为基于所述第一获取单元所获取到的与所述对象相对应的三维形状数据、所述第二获取单元所获取到的与所述构造物相对应的三维形状数据、所述第三获取单元所获取到的所述背景数据、以及所述第四获取单元所获取到的表示所述虚拟视点的信息,来生成虚拟视点图像,其中,所述发送单元以比所述第二图像的频率低的频率发送所述第一图像。
发明的效果
根据本发明,可以获得三维地表现甚至作为静止物体的构造物等、使得该构造物等变得接近于实际构造物的自然的虚拟视点图像。
通过参考附图给出的对以下实施例的说明,本发明的其它特征将变得更清楚。
附图说明
图1是说明传统方法的问题的图;
图2是示出根据第一实施例的照相机系统的配置的示例的图;
图3是示出虚拟视点图像生成系统的硬件结构的示例的图;
图4是说明多个照相机的共同摄像区域的图;
图5是体数据的说明图;
图6是示出根据第一实施例的构造物模型的生成处理的序列图;
图7A是示出在不存在足球球门的状态下的场地的拍摄图像的图;
图7B是示出在存在足球球门的状态下的场地的拍摄图像的图;
图8是在体数据上示出足球球门的三维模型的图;
图9是示出根据第一实施例的虚拟视点图像的生成处理的序列图;
图10A是示出拍摄图像的示例的图;
图10B是示出前景图像的示例的图;
图10C是示出虚拟视点图像的示例的图;
图11是在体数据上示出选手的三维模型的图;
图12是示出根据第一实施例的变形例的照相机系统的配置的示例的图;
图13A是说明传统方法的问题的图;
图13B是说明传统方法的问题的图;
图14是示出在从正上方观看相扑台的情况下的鸟瞰图上、将相扑台的周围划分成四个区域的图;
图15是示出根据第二实施例的用于对摄像场景内的构造物部分的图像数据进行间隔剔除并传输的处理的流程的流程图;以及
图16是示出根据第二实施例的虚拟视点图像的生成处理的流程的流程图。
具体实施方式
以下参考附图来说明用于体现本发明的方面。各实施例中所示的结构仅仅是示例性的,并且本发明不限于示意性示出的结构。
[第一实施例]
近年来,由于照相机的图像质量的提高,拍摄图像的分辨率增加,并且存在拍摄图像的数据量增加的趋势。在将多个照相机所拍摄到的多视点图像数据经由网络发送至服务器等时、原样发送该多视点图像数据的情况下,施加于网络的负荷很大。此外,接收到了多视点图像数据的服务器等中的三维模型生成和绘制处理时的计算量也增加。结果,在本实施例中,说明如下的方面:在抑制多视点图像数据的传输时的网络负荷的同时,获得将摄像场景内存在的构造物等三维地表现成变得接近于实际构造物的自然的虚拟视点图像。具体地,说明如下的方面:将摄像场景内的持续静止状态或接近静止状态的状态的构造物分离为既不是前景也不是背景的独特属性的对象,并且预先生成该构造物的三维模型。以下将通过采用如下情况作为示例来给出说明:将足球比赛作为摄像场景,并且预先生成作为构造物的足球球门的三维模型。
虚拟视点图像是通过最终用户和/或指定操作员等自由地操作虚拟照相机的位置和姿势所生成的、并且还被称为自由视点图像和任意视点图像等的视频图像。此外,所生成的虚拟视点图像或作为虚拟视点图像的源的多视点图像可以是运动图像或静止图像。在以下所述的各实施例中,主要说明所输入的多视点图像和所输出的虚拟视点图像这两者都是运动图像的情况的示例。本实施例中的构造物仅需是在从相同角度按时间序列进行摄像的情况下位置不会改变的静态对象(静止物体)。例如,在将室内演播室作为摄像场景的情况下,可以将家具或道具作为本实施例中的构造物进行处理。
图2是在从正上方观看场地200的情况下的鸟瞰图中示出构成虚拟视点图像生成系统的总共十个照相机系统110a~110j的配置的图。照相机系统110a~110j各自以围绕场地200的方式布置在从地面起的预定高度处,并且通过从各种角度拍摄球门其中之一的前方的部分来获取视点彼此不同的多视点图像数据。在草坪场地200上,(实际上,用白线)画出足球场201,并且在该足球场201的左侧和右侧都放置足球球门。此外,左侧的足球球门202的前方的×标记203表示照相机系统110a~110j的共同视线方向(注视点),并且虚线圆204表示照相机系统110a~110j各自可以以注视点203作为中心拍摄的区域。在本实施例中,假定在将场地200的角部其中之一作为原点、将长边方向作为x轴、将短边方向作为y轴、并且将高度方向作为z轴的坐标系中表示位置。
图3是示出虚拟视点图像生成系统的硬件结构的示例的图。图3中的虚拟视点图像生成系统包括照相机系统110a~110j、交换集线器120、控制装置130、服务器140和数据库150。
在照相机系统110a~110j各自内,包括:摄像单元111a~111j,其各自包括镜头和摄像传感器等;以及照相机适配器112a~112j,其各自根据控制装置130的指示来进行摄像单元的控制和预定的图像处理。照相机适配器包括控制和图像处理所需的计算处理装置(CPU或ASIC)以及存储器(RAM和ROM)。此外,照相机系统110a~110j通过菊花链方法连接,其中在该菊花链方法中,相邻的照相机系统通过网络线缆160a~160i各自连接。经由网络线缆160a~160i传输照相机系统110a~110j所拍摄到的图像数据。交换集线器(以下描述为“HUB”)120进行网络上的数据传输的路由。HUB 120和照相机系统110a通过网络线缆170a连接,并且HUB 120和照相机系统110j通过网络线缆170b连接。服务器140通过修改从照相机系统110a~110j发送来的多视点图像数据来生成虚拟视点图像数据。此外,服务器140还通过生成时刻同步信号来负责整个系统的同步控制。数据库(以下描述为“DB”)150累积从服务器140发送来的图像数据,并且根据需要将所累积的图像数据提供至服务器150。HUB120和服务器140通过网络线缆170c连接,服务器140和DB 150通过网络线缆170d连接,并且HUB 120和控制装置130通过网络线缆170e连接。控制装置130集中控制照相机系统110a~110j各自以及服务器140。然后,控制装置130将服务器140基于多视点图像所生成的虚拟视点图像输出至例如未示意性示出的显示装置和网络上的其它信息处理设备。在图3所示的系统结构中,多个照相机系统通过菊花链方法连接,但可以采用HUB 120和照相机系统110a~110j各自直接彼此连接的星形连接。此外,构成虚拟视点图像生成系统的照相机系统的数量不限于十个。
这里,说明本实施例中的多视点图像数据的获取。首先,服务器140将时刻同步信号发送至各照相机系统(时间服务器功能)。在照相机系统110a~110j各自中,摄像单元111a~111j各自在内部的照相机适配器112a~112j的控制下根据所接收到的时刻同步信号进行摄像。由于此,使得可以通过以帧为单位同步的运动图像来获取多视点图像。具体地,如以下所述,将各照相机系统所拍摄到的图像数据顺次发送至服务器140。首先,在照相机系统110a中,在照相机适配器112a对摄像单元11a所拍摄到的图像数据进行后面要说明的图像处理之后,将该图像数据经由网络线缆160a发送至照相机系统110b。照相机系统110b进行相同的处理,并且将该拍摄图像数据连同从照相机系统110a获取到的拍摄图像数据一起发送至照相机系统110c。在各照相机系统中进行相同的处理,并且十个照相机系统110a~110j各自所获取到的与总共十个视点相对应的拍摄图像数据经由网络线缆170b被发送至USB 120,并且最终被发送至服务器140。服务器140通过使用所接收到的与十个视点相对应的拍摄图像数据,来进行后面要说明的构造物模型的生成、对象的形状估计和诸如绘制等的图像处理。
图4是基于前面所述的图2而示意性示出上述十个照相机系统中的四个照相机系统110a~110d各自所拥有的摄像单元111a~111d各自的摄像区域的图。从照相机系统110a~110d各自延伸出的三角形区域411~414各自是由视体(visual volume)表示的、与照相机系统110a~110d各自相对应的摄像区域。然后,上述四个三角形摄像区域411~414重叠的多边形区域415表示照相机系统110a~110d的共同摄像区域。这里,通过采用四个照相机系统的情况作为示例来说明共同摄像区域,但可以通过相同的方法导出总共十个照相机系统中的共同摄像区域。当然,总共十个照相机系统中的共同摄像区域小于上述的多边形区域415。如上所述,可以通过计算各照相机所拥有的视体的重叠区域来获得拍摄共同注视点的照相机组的共同摄像区域。此外,还可以同样根据各照相机系统所获取到的多视点图像的重叠区域导出共同摄像区域中存在的对象的三维模型。
接着,说明作为本实施例的特征其中之一的、用于生成如上所述所获得的共同摄像区域内存在的构造物的三维模型的方法。这里,通过采用生成足球球门202的三维模型的情况作为示例来给出说明。首先,准备用具有预定大小的立方体(体素)填充场地200上的三维空间的体数据(参见图5)。构成体数据的体素的值分别由0和1表示,并且分别为“1”表示有助于形状形成的区域且“0”表示无助于形状形成的区域。在图5中,符号501表示体素(为了便于说明,该体素被画成大于实际体素)。接着,通过使用照相机系统110a~110j各自中所包括的摄像单元111a~111j的照相机参数,将体素的三维坐标从世界坐标系转换到照相机坐标系。然后,在照相机坐标系中存在构造物的情况下,生成通过体素表示构造物的三维形状的模型(构造物模型)。照相机参数是指与摄像单元111a~111j各自的安装位置和朝向(视线方向)、以及镜头的焦距等有关的信息。
图6是示出摄像场景内存在的构造物的模型的生成处理的序列图。在例如在体育馆的设置时等、作为虚拟视点图像的源数据的多视点图像的主要部分的摄像开始之前(例如,在比赛开始之前),预先进行通过该序列图示出的一系列处理。在图6中,将十个照相机系统110a~110j的集合描述为“照相机系统组”。
在步骤601中,摄像单元111a~111j各自拍摄在不存在构造物(这里为尚未安装足球球门202)的状态下的目标三维空间(这里是场地200)。图7A示出照相机系统110i的摄像单元111i拍摄在不存在足球球门202的状态下的场地200所获得的图像。在各照相机系统中获取到视点彼此不同的诸如该图像等的拍摄图像。
接着,在步骤602中,摄像单元111a~111j各自拍摄在存在构造物(这里为安装了足球球门202)的状态下的目标三维空间(场地200)。图7B示出照相机系统110i的摄像单元111i拍摄在存在足球球门202的状态下的场地200所获得的图像。与步骤601的情况相同,在各照相机系统中获取到视点彼此不同的诸如该图像等的拍摄图像。假定将在步骤601和602中获取到的拍摄图像数据存储在照相机适配器112a~112j各自内的存储器中。
在步骤603中,照相机适配器112a~112j根据步骤601中所获得的拍摄图像和步骤602中所获得的拍摄图像之间的差,将图像区域分离成拍摄构造物的图像区域和拍摄除构造物以外的背景的图像区域。由于此,获得与构造物(这里为足球球门202)相对应的图像数据和与除构造物以外的背景(这里为场地200)相对应的图像数据。
在步骤604中,照相机适配器112a~112j各自将步骤603中所获得的与构造物相对应的图像数据和与背景相对应的图像数据这两者发送至服务器140。
在步骤605中,服务器140基于从各照相机系统接收到的构造物的图像数据和各照相机系统的照相机参数,来生成由前面描述的体素构成的构造物(这里,足球球门202)的三维模型。图8是在前面描述的体数据上示出足球球门202的三维模型的图。还可以代替体素本身而是由各自表示体素的中心的点的集合(点云)来表示三维形状。将如此生成的构造物模型存储在服务器140内的存储器或DB 150中。此外,还一起存储了连同构造物图像数据一起接收到的背景图像数据。
以上是生成摄像场景内的构造物模型时的处理的流程。也可以通过相同的方法来生成例如角旗等的其它构造物的三维模型。在本实施例中,在照相机适配器侧进行构造物和除构造物以外的背景的分离,但也可以在服务器140侧进行该分离。
接着,说明通过使用如上所述所获得的构造物模型来生成无不协调感地表现摄像场景内存在的构造物的虚拟视点图像。图9是示出根据本实施例的虚拟视点图像的生成处理的序列图。与图6的序列图的情况相同,将十个照相机系统110a~110j的集合描述为“照相机系统组”。
根据足球比赛的开始等,在步骤901中,控制装置130将用以拍摄作为虚拟视点图像的源的多视点图像的指示(摄像开始命令)发送至服务器140。在接下来的步骤902中,在接收到来自控制装置130的摄像指示时,服务器140将时刻同步信号发送至照相机系统110a~110j中的各照相机系统。然后,在步骤903中,照相机系统110a~110j各自开始目标三维空间(这里为场地200上的三维空间)的摄像。由于此,例如,在照相机系统110i中,获得如图10A所示的足球比赛期间的图像。然后,在各照相机系统中进行视点彼此不同的诸如该图像等的图像的摄像。
在步骤904中,在照相机适配器112a~112j各自中,进行用以从步骤903中所获取到的拍摄图像中提取包括移动的对象(这里为选手和球)的前景的数据的处理。该提取处理换句话说可被称为如下的处理:基于通过将步骤903中所获取到的拍摄图像与前面所述的步骤602中所获取到的包括构造物的拍摄图像(图7B)进行比较而获得的差,来将拍摄图像分离成前景和背景。图10B示出从图10A的拍摄图像(整体图像)中提取的仅前景的图像。在随后的步骤905中,照相机适配器112a~112j各自将所提取的前景的图像数据发送至服务器140。此时,与场地200和足球球门202相对应的图像区域(背景的图像数据)未被发送至服务器140。通过这样做,相应地抑制了数据传输量。
在步骤906中,基于用户指示,控制装置130将用以生成虚拟视点图像的指示(生成开始命令)连同与虚拟视点和注视点有关的信息一起发送至服务器140。此时,希望创建并观看虚拟视点图像的用户经由控制装置130中所包括的GUI(未示意性示出)输入虚拟视点图像的生成所需的信息。具体地,用户经由预定的UI画面设置虚拟视点图像的生成所需的信息(以下称为“虚拟视点信息”),诸如虚拟视点的位置和移动路径、以及注视哪个(哪个对象)等。
在步骤907中,服务器140通过使用从照相机组接收到的前景的图像数据和前面描述的照相机参数来生成摄像场景内的移动对象的三维模型(前景模型)。这里,生成选手和球的三维模型作为前景模型。图11是与前面所述的图8相同、在体数据上示出该步骤中生成的选手和球的三维模型中的与一个特定选手相对应的三维模型的图。
在步骤908中,服务器140通过使用从控制装置130接收到的虚拟视图信息、步骤907中所获取到的前景模型、以及预先生成并获取到的构造物模型和背景数据,来生成虚拟视图图像。具体地,通过使用例如VisualHull方法来估计在从所设置的虚拟视点(虚拟照相机)观看构造物模型和前景模型各自的情况下的这两者各自的形状。作为形状估计处理的结果,获得表示摄像场景内存在的对象的三维形状的体数据。在获得从虚拟视点观看的对象的三维形状的情况下,接着,将这些对象的三维形状合成为一个图像。在合成处理时,在所设置的虚拟视点和前景模型之间的距离短于所设置的虚拟视点和构造物模型之间的距离的情况下,从构造物模型的上方映射前景模型。相反,在构造物模型比前景模型离虚拟视点更近的情况下,从前景模型的上方映射构造物模型。以这种方式,例如,在将从照相机系统110i的摄像单元111i的视点在高度方向(+z方向)上移动到的点作为虚拟视点的情况下的虚拟视图图像将会是如图10C所示的图像。在图10C所示的虚拟视图图像中,已知将作为前景模型的选手和球以及作为构造物模型的足球球门以自然的三维形状映射到场地200上。通过将诸如该处理等的处理重复与单独设置的时间帧的数量相对应的次数,获得了利用运动图像的期望的虚拟视图图像。
在本实施例中,通过在图9的序列中完全不传输背景图像数据来尝试抑制总数据传输量。在这种情况下,例如,在拍摄室外的运动场景的运动图像时,日照条件等随时间的经过而改变,因此可能出现完成的虚拟取景图像中的背景部分不同于实际的背景部分的问题。在担心这种问题的情况下,也可以在前景图像数据的传输之间适当地传输通过步骤904的前景/背景分离所获得的背景图像数据。
此外,在本实施例中,构造物模型的生成和前景模型的生成由服务器140进行,但这不是限制性的。例如,照相机适配器也有可能生成构造物模型并将构造物模型发送至服务器140。可选地,服务器140也有可能获取其它信息处理设备所生成的构造物模型的数据。需要在根据从多视点图像提取的前景数据生成前景模型的阶段中产生服务器140可以使用构造物模型的状态。
<变形例>
在上述示例中,尝试通过将摄像场景内的构造物作为既不是前景也不是背景的独特属性的对象进行处理、并且预先生成并存储该构造物的三维模型,来减少数据传输量。从减少数据传输量的观点来看,也可以通过将构造物的三维模型作为背景进行处理来实现该目的。然而,在将构造物模型作为背景进行处理的情况下,发生以下问题。
图12是示出在摄像场景是相扑的情况下的构成根据本变形例的虚拟视点图像生成系统的总共十个照相机系统110a~110j的配置的图。照相机系统110a~110j各自以围绕相扑台的方式安装在相扑会场的天花板处,并且通过从各种角度拍摄相扑台来获取视点彼此不同的多视点图像数据。在这种情况下,基于通过单独拍摄相扑台(=构造物)所获得的图像来生成三维模型,并且将所获得的相扑台的三维形状作为背景进行处理。
这里,假定:例如,如图13A所示,作为两个相扑力士之间的对战的结果,相扑力士其中之一从相扑台摔下。考虑通过总共10个照相机系统110a~110j拍摄到图13A的状态、并且仅前景的图像数据被发送至服务器140的情况。接收到前景的图像数据的服务器140将作为前景的两个相扑力士映射到作为背景而预先创建的相扑台的三维模型上。作为其结果,将获得被推出并从相扑台摔下的力士正躺在相扑台上的图像。也就是说,在将生成三维模型的构造物作为背景进行处理的情况下,根据前景的位置不能获得自然的虚拟视点图像。结果,在将构造物模型作为背景进行处理的情况下,期望预先判断是否获得了自然的虚拟视点图像,并且在获得了不自然的虚拟视点图像的可能性高的情况下向用户发出警告。
图14是从正上方观看相扑台并且将相扑台的周围划分成四个区域A、B、C和D的情况下的鸟瞰图。区域A、B、C和D各自表示相扑台的下方(相扑台的外部)的部分。中央的×标记是照相机系统110a~110j内的摄像单元111a~111j的注视点。在本变形例中,在给出用以生成虚拟视点图像的指示的情况下,确认前景的位置。在上述示例中,还基于离所指定的虚拟视点(虚拟照相机)的距离或者未示意性示出的拍摄整个相扑台的鸟瞰图的照相机的图像来判断相扑力士的位置是否在相扑台上。然后,在力士至少之一不在相扑台上并且所指定的虚拟视点的位置和力士的位置不存在于A~D中的任一个的相同区域中的情况下,判断为不可能生成虚拟视点图像并且发出警告。原因在于,在虚拟视点的位置存在的区域与相扑力士的位置存在的区域不同的情况(诸如一个在A区域内并且另一个在C区域内的情况)下,生成将相扑力士粘贴到与实际位置不同的位置上的不自然的虚拟视点图像的可能性高。如上所述,在将构造物模型作为背景进行处理的情况下,需要注意这一点。
根据本实施例,对于构造物,预先创建该构造物的三维模型,并且将该三维模型以与其它前景模型不同的方式进行处理。由于此,可以在抑制作为虚拟视点图像的源的多视点图像的数据传输量的同时,生成无不协调感地表现摄像场景内的构造物的虚拟视点图像。
[第二实施例]
在第一实施例中,方面是这样的:通过将摄像场景内的构造物分离为既不是前景也不是背景的独特属性的对象、并且预先生成该对象的三维模型并将该三维模型存储在服务器中,来抑制数据传输量。接着,作为第二实施例,说明如下的方面:通过在将摄像场景内的构造物作为前景进行处理的同时、在对该构造物的数据进行间隔剔除之后传输该数据,来抑制数据传输量。省略或简化了与第一实施例的内容共同的内容(诸如系统结构等)的说明,并且以下主要说明不同点。
在本实施例中,与第一实施例中相同,通过采用将足球比赛视为摄像场景的情况作为示例来给出说明。也就是说,以下在照相机系统的配置与前面所述的图2中相同的前提下给出说明。在这种情况下,将作为构造物的足球球门作为前景模型进行处理,尽管仍区别于选手和球。图15是示出根据本实施例的在对摄像场景内的构造物部分的图像数据进行间隔剔除之后传输该图像数据的处理的流程的流程图。在用户经由控制装置130的UI给出用以拍摄作为虚拟视点图像的源的多视点图像的指示的情况下,在各照相机系统中开始图15中的流程的执行。也就是说,通过照相机适配器内的CPU等执行预定程序来实现该流程。
这里,在图15的流程的执行开始之前,需要完成该流程的准备处理。具体地,在照相机系统110A~110j各自中,预先分别获取通过在不存在构造物的状态下和在存在构造物的状态下拍摄场地200所获得的整体图像(参见图7A和图7B),并且将这些整体图像存储在照相机适配器112A~112j各自内的存储器中。该准备处理在体育馆的设置时(例如,在比赛开始之前)预先进行。通过准备处理所获得的这些图像的数据也被发送至服务器140并被存储在服务器140内的存储器中,以供在后面要说明的虚拟视点图像的生成处理中参考。在诸如该准备处理等的准备处理完成的前提下,可以进行图15的流程。
首先,在步骤1501中,在照相机适配器112a~112j各自中,初始化其内部所包括的计数器(未示意性示出)的值。具体地,作为初始值,设置“0”。在随后的步骤1502中,在摄像单元111a~111j各自中,开始根据从服务器140发送来的时刻同步信号的摄像。接着,在步骤1503中,根据当前计数器值是否是“0”,分支出以下的处理。在计数器值是“0”的情况下,处理进入步骤1507,并且在计数器值是“0”以外的值的情况下,处理进入步骤1504。
在步骤1504中,从计数器值中减去“1”(使计数器值递减)。在随后的步骤1505中,在照相机适配器112a~112j各自中,进行用以从摄像单元111a~111j各自所拍摄到的图像(帧)中提取前景区域的处理。具体地,用以求出与拍摄图像的差的处理(前景/背景分离处理)是通过使用在准备处理中预先获取到并存储的两个图案的整体图像中的具有构造物的整体图像来进行的。这里,在准备处理中获取到的两个图案的整体图像中的具有构造物的整体图像中,在作为构造物的足球球门202安装在场地200上的状态下拍摄足球球门202(图7B)。结果,获得通过切出仅拍摄不包括足球球门的诸如选手和球等的移动对象的区域所获得的图像作为前景数据。然后,在步骤1506中,照相机适配器112a~112j各自将在步骤1505所获得的不包括构造物的前景数据发送至服务器140。在前景数据的发送完成之后,处理进入步骤1510,并且判断是否终止摄像。在未从服务器140接收到用以终止摄像的指示的情况下,处理返回到步骤1503。
在步骤1507中,在照相机适配器112a~112j各自中,进行用以从摄像单元111a~111j各自所拍摄到的图像(帧)中提取前景区域的处理。具体地,通过使用在准备处理中预先获取到并存储的两个图案的整体图像中的无构造物的整体图像,来进行用以求出与拍摄图像的差的前景/背景分离处理。这里,在准备处理中获取到的两个图案的整体图像中的无构造物的整体图像中,仅拍摄在尚未安装足球球门202的状态下的场地200(图7A)。结果,获得了如下的图像作为前景数据,其中在该图像中,不仅拍摄选手和球的区域被切出,而且拍摄足球球门的区域也被切出。也就是说,在该步骤中,作为构造物的足球球门也被提取为前景。然后,在步骤1508中,照相机适配器112a~112j各自将步骤1507中所获得的“包括构造物的前景数据”发送至服务器140。此时,通过给出表示构造物的有无的信息(例如,用“1”表示包括构造物的情况并且用“0”表示不包括构造物的情况的二值标志)来进行发送,使得接收到了数据的服务器14侧知晓构造物的区域也包括在前景数据中。在随后的步骤1509中,将预定值N(N>1)设置到计数器。具体地,在摄像单元111a~111j各自所进行的运动图像拍摄的帧频例如是60fps的情况下,设置诸如“60”等的值。通过将要设置到计数器的预定值设置为任意值,用户可以自由地改变发送包括构造物的前景数据的频率(每N次进行1次)。在对计数器的预定值的设置完成之后,处理进入步骤1510,并且判断是否终止摄像。在服务器140未给出用以终止摄像的指示的情况下,处理返回到步骤1503。
以上是用以对摄像场景内的构造物部分的图像数据进行间隔剔除并传输的处理的内容。作为执行诸如该处理等的处理的结果,例如,在将与帧频的值相同的值作为预定值设置到计数器的情况下,每60次中仅有1次将包括构造物(这里为足球球门)的前景的图像数据传输至服务器140。当然,(针对各帧)在60次中的每1次均传输诸如选手和球等的移动对象。如上所述,可以以与诸如选手和球等的移动对象的帧频相比降低的帧频来传输与作为静止对象的构造物有关的图像信息,因此与针对各帧传输包括构造物的前景的图像数据的情况相比,可以显著提高传输效率。此外,通过以比不包括关于构造物的图像信息的前景图像的频率低的频率发送包括关于构造物的图像信息的前景图像,可以减少要传输的数据。
接着,说明在服务器140基于如上所述顺次发送的前景的图像数据来生成虚拟视点图像时的处理。图16是示出服务器140中的虚拟视点图像的生成处理的流程的流程图。针对照相机系统110a~110j各自所拍摄到并传输的所有前景的图像数据中的、与用户所指定的特定时间帧(例如,对应于10秒)相对应的作为目标的前景图像,以帧为单位进行图16的流程。该一系列处理通过服务器140内的CPU基于控制装置130的指示执行预定程序来实现。
首先,在步骤1601中,确定与所设置的时间帧相对应的前景的图像数据中的作为处理目标的关注前景图像(帧)。在随后的步骤1602中,基于前面描述的二进制标记来判断在关注前景图像中是否包括构造物。在判断结果表示在关注前景图像中包括构造物的情况下,处理进入步骤1603,并且在不包括构造物的情况下,处理进入步骤1605。
在步骤1603中,在关注前景图像中包括构造物的情况下,从关注前景图像中提取与该构造物相对应的图像区域,并且生成表示该构造物的图像(以下称为“构造物图像”)。该生成处理通过如下的过程来进行。首先,求出在前面所述的准备处理中获取到并存储的在存在构造物的状态下的拍摄图像(整体图像)与关注前景图像之间的差,并且取出与前景相对应的图像区域。接着,将所取出的与前景相对应的图像区域和预先存储的在不存在构造物的状态下的拍摄图像(整体图像)进行合成。然后,求出通过合成所获得的合成图像与关注前景图像之间的差,并且获得仅表示与构造物相对应的图像区域的构造物图像。然后,在步骤1604中,将步骤1603中所生成的构造物图像的数据存储在服务器140内的存储器中。在已存储了构造物图像的数据的情况下,用重新生成的构造物图像的数据覆盖(更新)该数据。在将所生成的构造物图像的数据存储在存储器中之后,处理进入步骤1607。
另一方面,在关注前景图像中不包括构造物的情况下的步骤1605中,读出在先前的步骤1603和步骤1604的处理中生成并存储的构造物图像的数据。在随后的步骤1606,将所读取的构造物图像和不包括构造物的关注前景图像进行合成,并且生成包括构造物的关注前景图像。
在步骤1607中,生成将构造物作为前景的一部分的摄像场景内的对象的三维模型(前景模型)。此时,在关注前景图像中原本包括构造物(步骤1602中为“是”)的情况下的步骤中,通过原样使用关注前景图像来生成前景模型。另一方面,在关注前景图像中原本不包括构造物的情况下的步骤中,通过使用在步骤1606中与构造物合成的关注前景图像来生成前景模型。在任何情况下,生成除包括诸如选手和球等的移动对象之外、还包括作为构造物(静止对象)的足球球门的前景模型。
在步骤1608中,基于与用户单独设置的虚拟视点有关的位置信息,通过估计在从该虚拟视点观看步骤1607中所生成的前景模型的情况下的形状来生成虚拟视点图像。
以上是根据本实施例的服务器140中的虚拟视点图像的生成处理的内容。如本实施例那样,通过在将摄像场景内的构造物作为前景进行处理的同时、在对该构造物的图像数据进行间隔剔除之后传输该图像数据,也可以获得与第一实施例中的效果相同的效果。
(其它实施例)
还可以通过如下的处理来实现本发明:将实现上述实施例的一个或多个功能的程序经由网络或存储介质供给至系统或设备,并且使得该系统或设备的计算机中的一个或多个处理器读取并执行该程序。此外,还可以通过实现一个或多个功能的电路(例如,ASIC)来实现本发明。
迄此为止参考实施例说明了本发明,但无需说明,本发明不限于上述的实施例。所附权利要求书的范围符合最宽的说明,以包含所有这类修改、等同结构和功能。
本申请要求2017年12月14日提交的日本专利申请2017-239888的权益,其全部内容通过引用而被包含于此。

Claims (26)

1.一种系统,包括:
第一生成单元,其被配置为生成与从多个方向拍摄到的对象相对应的三维形状数据;
第一获取单元,其被配置为获取与从多个方向拍摄到的构造物相对应的三维形状数据;
第二获取单元,其被配置为获取与背景相对应的背景数据,所述背景至少与从多个方向拍摄到的所述对象和所述构造物这两者不同;
第三获取单元,其被配置为获取表示所指定的视点的信息;以及
第二生成单元,其被配置为基于所述第一生成单元所生成的与所述对象相对应的三维形状数据、所述第一获取单元所获取到的与所述构造物相对应的三维形状数据、所述第二获取单元所获取到的背景数据、以及所述第三获取单元所获取到的表示所述视点的信息,来生成图像,
其中,所述第一生成单元能够基于包括所述对象的区域、所述构造物的区域和所述背景的区域的图像以及不包括所述对象的区域但包括所述构造物的区域和所述背景的区域的图像,来生成与所述对象相对应的三维形状数据。
2.根据权利要求1所述的系统,其中,
所述第一获取单元获取基于通过在开始事件之前的摄像所获得的拍摄图像而生成的与所述构造物相对应的三维形状数据。
3.根据权利要求1所述的系统,其中,
所述第一获取单元获取基于多个图像所生成的与所述构造物相对应的三维形状数据,所述多个图像将所述构造物的区域显示成与其它区域有所区别,并且所述多个图像是基于通过在开始事件之前从多个方向的摄像所获取到的多个拍摄图像的。
4.根据权利要求1所述的系统,其中,
所述第一获取单元基于通过在开始事件之前的摄像所获得的拍摄图像,来生成并获取与所述构造物相对应的三维形状数据。
5.根据权利要求1所述的系统,其中,
所述第一获取单元基于多个图像来生成并获取与所述构造物相对应的三维形状数据,所述多个图像是基于通过在开始事件之前从多个方向的摄像所获取到的多个拍摄图像的、并且将所述构造物的区域显示成与其它区域有所区别。
6.根据权利要求1所述的系统,其中,
所述第一获取单元在开始事件之前,获取与所述构造物相对应的三维形状数据。
7.根据权利要求2所述的系统,其中,
通过在开始所述事件之前的摄像所获取到的拍摄图像是不包括所述对象的区域但包括所述构造物的区域和所述背景的区域的图像。
8.根据权利要求1所述的系统,其中,
所述第一生成单元能够基于通过在开始事件之后从多个方向的摄像所获取到的多个拍摄图像,来生成与所述对象相对应的三维形状数据。
9.根据权利要求1所述的系统,其中,
所述第一生成单元能够基于通过在开始事件之后从多个方向的摄像所获取到的多个拍摄图像、以及通过在开始事件之前从多个方向的摄像所获取到的多个拍摄图像,来生成与所述对象相对应的三维形状数据。
10.根据权利要求8所述的系统,其中,
通过在开始事件之后从多个方向的摄像所获取到的多个拍摄图像是包括所述对象的区域、所述构造物的区域和所述背景的区域的图像。
11.根据权利要求1所述的系统,其中,所述构造物的三维形状数据、所述背景数据和表示所述视点的信息是由所述系统中所包括的通信单元获取到的。
12.一种系统,用于生成基于所指定的视点的图像,所述系统包括:
第一生成单元,其被配置为基于拍摄图像来生成包括构造物的区域的图像;
第二生成单元,其被配置为基于拍摄图像来生成包括对象的区域但不包括所述构造物的区域的图像;以及
发送单元,其被配置为发送所述第一生成单元所生成的图像和所述第二生成单元所生成的图像,
其中,所述发送单元能够将所述第一生成单元所生成的图像以与所述第二生成单元所生成的图像相比更低的频率发送。
13.根据权利要求12所述的系统,还包括:
第三生成单元,其被配置为基于从所述发送单元发送来的所述第一生成单元所生成的图像和所述第二生成单元所生成的图像这两者,来生成基于所指定的视点的图像。
14.根据权利要求12所述的系统,还包括:
第四生成单元,其被配置为基于从所述发送单元发送来的所述第一生成单元所生成的图像和所述第二生成单元所生成的图像这两者,来生成将所述构造物的区域显示成与其它区域有所区别的图像。
15.根据权利要求12所述的系统,还包括:
第五生成单元,其被配置为基于从所述发送单元发送来的所述第一生成单元所生成的图像和所述第二生成单元所生成的图像这两者,来获取与所述对象相对应的三维形状数据和与所述构造物相对应的三维形状数据。
16.根据权利要求1至15中任一项所述的系统,其中,
所述对象是移动物体。
17.根据权利要求1至15中任一项所述的系统,其中,
人物和球至少之一是所述对象。
18.根据权利要求1至15中任一项所述的系统,其中,
所述构造物是持续静止状态的物体。
19.根据权利要求1至15中任一项所述的系统,其中,
足球比赛中所使用的足球球门和角旗至少之一是所述构造物。
20.根据权利要求1至15中任一项所述的系统,其中,
所述构造物是安装在预定位置处的物体。
21.根据权利要求1至15中任一项所述的系统,其中,
所述构造物的至少一部分安装在作为对象的人物进行比赛的场地上。
22.根据权利要求1至15中任一项所述的系统,其中,
所述构造物是所指定的物体。
23.一种生成方法,用于生成基于所指定的视点的图像,所述生成方法包括:
第一生成步骤,用于生成与从多个方向拍摄到的对象相对应的三维形状数据;
第一获取步骤,用于获取与从多个方向拍摄到的构造物相对应的三维形状数据;
第二获取步骤,用于获取与背景相对应的背景数据,所述背景至少与从多个方向拍摄到的所述对象和所述构造物这两者不同;
第三获取步骤,用于获取表示所指定的视点的信息;以及
第二生成步骤,用于基于在所述第一生成步骤中生成的与所述对象相对应的三维形状数据、在所述第一获取步骤中获取到的与所述构造物相对应的三维形状数据、在所述第二获取步骤中获取到的背景数据、以及在所述第三获取步骤中获取到的表示所述视点的信息,来生成图像,
其中,在所述第一生成步骤中,基于包括所述对象的区域、所述构造物的区域和所述背景的区域的图像以及不包括所述对象的区域但包括所述构造物的区域和所述背景的区域的图像,来生成与所述对象相对应的三维形状数据。
24.根据权利要求23所述的生成方法,其中,
在所述第一获取步骤中,基于多个图像来生成与所述构造物相对应的三维形状数据,所述多个图像将所述构造物的区域显示成与其它区域有所区别,并且所述多个图像是基于通过在开始事件之前从多个方向的摄像所获取到的不包括所述对象的区域但包括所述构造物的区域和所述背景的区域的图像的。
25.一种生成方法,用于生成基于所指定的视点的图像,所述生成方法包括:
第一生成步骤,用于基于拍摄图像来生成包括构造物的区域的图像;
第二生成步骤,用于基于拍摄图像来生成包括对象的区域但不包括所述构造物的区域的图像;以及
发送步骤,用于发送在所述第一生成步骤中生成的图像和在所述第二生成步骤中生成的图像,
其中,在所述发送步骤中,将在所述第一生成步骤中生成的图像以与在所述第二生成步骤中生成的图像相比更低的频率发送。
26.一种存储有程序的非暂时性计算机可读存储介质,所述程序用于使得计算机进行根据权利要求23至25中任一项所述的生成方法。
CN202011164759.5A 2017-12-14 2018-12-13 用于生成图像的系统、方法和存储介质 Pending CN112489182A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-239888 2017-12-14
JP2017239888A JP6513169B1 (ja) 2017-12-14 2017-12-14 仮想視点画像を生成するシステム、方法及びプログラム
CN201880028676.8A CN110574075B (zh) 2017-12-14 2018-12-13 用于生成虚拟视点图像的设备、系统、方法和存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201880028676.8A Division CN110574075B (zh) 2017-12-14 2018-12-13 用于生成虚拟视点图像的设备、系统、方法和存储介质

Publications (1)

Publication Number Publication Date
CN112489182A true CN112489182A (zh) 2021-03-12

Family

ID=66530736

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202011164759.5A Pending CN112489182A (zh) 2017-12-14 2018-12-13 用于生成图像的系统、方法和存储介质
CN201880028676.8A Active CN110574075B (zh) 2017-12-14 2018-12-13 用于生成虚拟视点图像的设备、系统、方法和存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201880028676.8A Active CN110574075B (zh) 2017-12-14 2018-12-13 用于生成虚拟视点图像的设备、系统、方法和存储介质

Country Status (6)

Country Link
US (3) US10755471B2 (zh)
EP (1) EP3605471A4 (zh)
JP (1) JP6513169B1 (zh)
KR (2) KR102153985B1 (zh)
CN (2) CN112489182A (zh)
WO (1) WO2019117264A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7212611B2 (ja) * 2017-02-27 2023-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP2019191989A (ja) * 2018-04-26 2019-10-31 キヤノン株式会社 仮想視点画像を生成するシステム、方法及びプログラム
US10930001B2 (en) * 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
JP7250588B2 (ja) * 2019-03-28 2023-04-03 キヤノン株式会社 画像処理装置、送信方法、及びプログラム
WO2021131365A1 (ja) * 2019-12-26 2021-07-01 富士フイルム株式会社 情報処理装置、情報処理装置の作動方法、及びプログラム
WO2021149336A1 (ja) * 2020-01-22 2021-07-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7301772B2 (ja) * 2020-03-19 2023-07-03 富士フイルム株式会社 表示制御装置、表示制御装置の作動方法、表示制御装置の作動プログラム
KR20220003376A (ko) 2020-07-01 2022-01-10 삼성전자주식회사 이미지 처리 방법 및 장치
CN112004162B (zh) * 2020-09-08 2022-06-21 宁波视睿迪光电有限公司 一种在线3d内容播放系统及方法
US20220272305A1 (en) * 2021-02-24 2022-08-25 Santiago Rivera-Placeres System for Detection and Video Sharing of Sports Highlights
US12028507B2 (en) * 2021-03-11 2024-07-02 Quintar, Inc. Augmented reality system with remote presentation including 3D graphics extending beyond frame
JP2022160233A (ja) * 2021-04-06 2022-10-19 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2023054710A (ja) * 2021-10-04 2023-04-14 キヤノン株式会社 情報処理装置および方法、プログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149576A (ja) * 1997-09-09 1999-06-02 Sanyo Electric Co Ltd 3次元モデリング装置、3次元モデリング方法、3次元モデリングプログラムを記録した媒体、および3次元形状推定プログラムを記録した媒体
WO2000031981A1 (en) * 1998-11-20 2000-06-02 Koninklijke Philips Electronics N.V. Extraction of foreground information for stereoscopic video coding
JP2005065051A (ja) * 2003-08-18 2005-03-10 Sony Corp 撮像装置
US20090129630A1 (en) * 2007-11-16 2009-05-21 Sportvision, Inc. 3d textured objects for virtual viewpoint animations
WO2009064893A2 (en) * 2007-11-16 2009-05-22 Sportvision, Inc. Line removal and object detection in an image
US20090315978A1 (en) * 2006-06-02 2009-12-24 Eidgenossische Technische Hochschule Zurich Method and system for generating a 3d representation of a dynamically changing 3d scene
US20130016097A1 (en) * 2010-04-02 2013-01-17 Imec Virtual Camera System
JP2015114716A (ja) * 2013-12-09 2015-06-22 シャープ株式会社 画像データ再生装置および画像データ生成装置
WO2017204171A2 (en) * 2016-05-25 2017-11-30 Canon Kabushiki Kaisha Information processing apparatus, image generation method, control method, and program
WO2017204174A1 (en) * 2016-05-25 2017-11-30 Canon Kabushiki Kaisha Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with transmission of foreground and background images at different frame rates

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130278727A1 (en) * 2010-11-24 2013-10-24 Stergen High-Tech Ltd. Method and system for creating three-dimensional viewable video from a single video stream
JP5809607B2 (ja) 2012-07-03 2015-11-11 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6624940B2 (ja) * 2016-01-15 2019-12-25 株式会社クボタ アシスト器具

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149576A (ja) * 1997-09-09 1999-06-02 Sanyo Electric Co Ltd 3次元モデリング装置、3次元モデリング方法、3次元モデリングプログラムを記録した媒体、および3次元形状推定プログラムを記録した媒体
WO2000031981A1 (en) * 1998-11-20 2000-06-02 Koninklijke Philips Electronics N.V. Extraction of foreground information for stereoscopic video coding
JP2005065051A (ja) * 2003-08-18 2005-03-10 Sony Corp 撮像装置
US20090315978A1 (en) * 2006-06-02 2009-12-24 Eidgenossische Technische Hochschule Zurich Method and system for generating a 3d representation of a dynamically changing 3d scene
US20090129630A1 (en) * 2007-11-16 2009-05-21 Sportvision, Inc. 3d textured objects for virtual viewpoint animations
WO2009064893A2 (en) * 2007-11-16 2009-05-22 Sportvision, Inc. Line removal and object detection in an image
US20130016097A1 (en) * 2010-04-02 2013-01-17 Imec Virtual Camera System
JP2015114716A (ja) * 2013-12-09 2015-06-22 シャープ株式会社 画像データ再生装置および画像データ生成装置
WO2017204171A2 (en) * 2016-05-25 2017-11-30 Canon Kabushiki Kaisha Information processing apparatus, image generation method, control method, and program
WO2017204174A1 (en) * 2016-05-25 2017-11-30 Canon Kabushiki Kaisha Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with transmission of foreground and background images at different frame rates

Also Published As

Publication number Publication date
EP3605471A1 (en) 2020-02-05
US20220375158A1 (en) 2022-11-24
US20200066028A1 (en) 2020-02-27
KR102153985B1 (ko) 2020-09-09
KR102280587B1 (ko) 2021-07-23
US10755471B2 (en) 2020-08-25
JP2019106144A (ja) 2019-06-27
US11443478B2 (en) 2022-09-13
KR20190128735A (ko) 2019-11-18
JP6513169B1 (ja) 2019-05-15
CN110574075A (zh) 2019-12-13
US11798224B2 (en) 2023-10-24
WO2019117264A1 (ja) 2019-06-20
EP3605471A4 (en) 2021-01-06
US20200349756A1 (en) 2020-11-05
KR20200064176A (ko) 2020-06-05
CN110574075B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN110574075B (zh) 用于生成虚拟视点图像的设备、系统、方法和存储介质
CN109716398B (zh) 图像处理设备、图像生成方法和存储介质
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7146662B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11151787B2 (en) Generation device, generation method and storage medium for three-dimensional model from object images and structure images
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110915206B (zh) 用于产生虚拟三维图像的系统和方法
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2022047701A1 (zh) 图像处理方法和装置
US11557087B2 (en) Image processing apparatus and image processing method for generating a strobe image using a three-dimensional model of an object
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6775669B2 (ja) 情報処理装置
JP6759375B2 (ja) 仮想視点画像を生成するシステム、方法及びプログラム
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
JP2020067815A (ja) 画像処理装置、画像処理方法およびプログラム
JP2022110751A (ja) 情報処理装置、情報処理方法及びプログラム
CN113170233A (zh) 图像处理装置、图像处理方法、程序以及显示装置
CN112839164A (zh) 一种拍照方法及装置
KR20060021566A (ko) 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템
JP7044846B2 (ja) 情報処理装置
WO2023032085A1 (ja) 映像送信システム、端末装置および映像送信方法
EP4296961A1 (en) Image processing device, image processing method, and program
CN114071115A (zh) 自由视点视频重建及播放处理方法、设备及存储介质
JP2019118042A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination