CN114762007A - 信息处理系统、信息处理方法和程序 - Google Patents

信息处理系统、信息处理方法和程序 Download PDF

Info

Publication number
CN114762007A
CN114762007A CN202080083377.1A CN202080083377A CN114762007A CN 114762007 A CN114762007 A CN 114762007A CN 202080083377 A CN202080083377 A CN 202080083377A CN 114762007 A CN114762007 A CN 114762007A
Authority
CN
China
Prior art keywords
unit
information
map information
camera
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080083377.1A
Other languages
English (en)
Inventor
江岛公志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN114762007A publication Critical patent/CN114762007A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

该信息处理系统(1)设置有:估计单元(212),当指示真实空间中的第一设备(10)周围环境的地图的地图信息被更新时,该估计单元基于更新后的地图信息和通过观察该第一设备(10)周围的环境而获得的观察信息来估计该第一设备(10)的位置;指定单元(213),使用由估计单元(212)估计出的第一设备(10)的位置作为基础来指定设置在与真实空间相关联的虚拟空间的虚拟相机的位置;以及图像生成单元(213),生成与在指定单元所指定的位置处的相机的成像范围相对应的虚拟空间的图像。

Description

信息处理系统、信息处理方法和程序
技术领域
本公开涉及信息处理系统、信息处理方法和程序。
背景技术
使用诸如计算机图形(CG)的三维图像数据的三维视频已被广泛使用。对于这样的三维视频,要求具有良好的摄影技巧并且看起来像是被摄影师拍摄的三维视频。然而,在三维视频中,由于需要生成三维平移和旋转信息,所以难以展示看起来像是被摄影师拍摄的视频。
在此,开发了一种技术,以生成示出虚拟空间的内部的三维视频,该虚拟空间内部看起来像是被虚拟相机拍摄,该虚拟相机是假想的相机并且被布置在由三维图像数据创建的虚拟空间中。这样的虚拟相机使得可以利用由摄影师持有的用作虚拟相机的装置和自身位置估计技术来生成具有高度逼真的摄影技巧的三维视频。
现有技术文献
专利文献
专利文献1:JP 2014-197317 A
发明内容
技术问题
然而,在自身位置估计技术中,由于包括在更新前的地图信息中的误差,地图信息的更新可能产生非预期的三维视频。
因此,本公开提出了一种信息处理系统、信息处理方法以及程序,其被配置为解决在地图信息更新时由地图信息中的误差引起的问题。
问题的解决方案
为了解决上述问题,根据本公开的信息处理系统包括:估计单元,在指示真实空间中的第一设备周围的环境的地图的地图信息被更新时,基于通过观察第一设备周围的环境而获得的观察信息和更新后的地图信息来估计第一设备的位置;识别单元,基于由估计单元估计的第一设备的位置,识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置;以及视频生成单元,生成与在识别单元识别出的位置处的相机的成像范围相对应的虚拟空间的视频。
附图说明
图1是示出了由于地图信息的优化而导致的自身位置估计的不连续结果的实例的示图。
图2为示出根据本公开第一实施方式的信息处理系统的配置示例的示意图。
图3是示出根据本公开的第一实施方式的成像设备的示意性配置实例的示图。
图4为示出根据本公开第一实施方式的三维视频合成设备的示意性配置实例的示图。
图5为示出根据本发明第一实施方式的三维视频生成处理的实例的流程图。
图6是示出根据本公开的第一实施方式的第一变形例的再处理确定的实例的流程图。
图7是示出根据本公开的第一实施方式的第二变形例的再处理确定的实例的流程图。
图8是示出了根据本公开第二实施方式的三维视频合成设备的示意性配置实例的示图。
图9是示出根据本公开的第二实施方式的第一变形例的处理内容的实例的曲线图。
图10是示出根据本公开的第二实施方式的第二变形例的处理内容的实例的曲线图。
图11是示出根据本公开的实施方式的计算机的硬件配置的框图。
具体实施方式
下面将参考附图详细描述本公开的实施方式。注意,在以下实施方式中,相同的部分由相同的参考标号或符号表示,并且将省略其重复描述。
(第一实施方式)
近来的电影等通常使用利用诸如计算机图形(CG)的三维图像数据的三维视频。对于这样的三维视频,要求具有良好的摄影技巧并且看起来像是被摄影师拍摄的三维视频。然而,为了生成具有良好的摄影技巧并且看起来像是被摄影师拍摄的三维视频,需要生成所有时刻的三维平移和旋转信息。因此,非常难以生成看起来像是被实际的摄影师拍摄的视频。
同时,已开发了一种技术,以生成示出虚拟空间的内部的三维视频,该虚拟空间内部看起来像是被虚拟相机拍摄,该虚拟相机是假想的相机并且被布置在由三维图像数据创建的虚拟空间中。
在虚拟相机系统中,渲染在虚拟相机的成像范围内的虚拟空间,使得可以生成将虚拟空间内部示出为像是被相机拍摄的三维视频。此外,在虚拟相机系统中,摄影师持有并操作用作虚拟相机的设备,使得能够生成具有高度真实的摄影技巧的三维视频。
这里,“虚幻引擎虚拟相机插件”已知是从设备的三维位置和姿势生成虚拟空间的三维视频的技术。
这些技术使用检测设备运动的运动捕获系统来实现的。例如,所谓的由外向内(Outside-in)方法用于该实现,在该方法中,通过使用预先安装在成像环境中的传感器或相机来识别设备的三维位置和姿势。然而,在由外向内方法中,在安装了传感器、相机等的成像环境的外部不能识别装置的自身位置和姿势。因此,成像的性能被限于成像环境的内部。
因此,期望前进到不限制成像环境的所谓的由内向外(Inside-out)方法。在由内向外方法中,将用于识别自身位置和姿势的传感器或相机安装到设备上。如上所述,在由内向外方法中,安装到设备上的传感器或相机防止了成像环境的限制。
然而,为了在大范围内无误差地估计相机的位置和姿势,通常需要预先创建指示设备周围环境的地图信息。与每个成像位置相对应的地图信息的创建需要很长的时间和精力,从而导致成像时间和成本增加。
同时,这样的问题可以通过在实际成像时或在排练时创建地图信息来解决,但是可能存在由于排练与实际成像之间的环境差异而需要更新地图信息的情况。另外,地图信息不是立即优化的,而是使用过去的识别结果来集体优化。因此,当在成像时执行地图的生成和更新时,由于地图信息的优化处理,存在提供自身位置估计的不连续结果的可能性。或者,存在在成像时可能输出包括累积误差的设备的移动轨迹的可能性。
此处,图1为示出了由于地图信息的优化而导致的自身位置估计的不连续结果的实例的示图。假设车辆最初如图1所示的轨迹所示移动。在此,在自身位置估计技术中,基于指示周围环境的地图信息和通过对周围环境成像而获得的图像数据来估计自身位置。
因此,当对地图信息执行优化处理时,如图1所示,自身位置可能改变。自身位置的改变还改变虚拟相机的成像范围,因此,存在生成不连续视频的可能性。此外,由于包含在更新前的地图信息中的误差,在观看虚拟相机上的三维视频的同时移动的摄影师可能沿着不同于预期路线的路线移动,如图1所示。因此,在一些情况下,成像的时间可能与最初预期的时间有很大不同。因此,需要一种能够在通过优化处理等更新地图信息时消除由误差引起的问题的技术。
在此,在摄影工作室等中进行成像的情况下,摄影师允许移动的范围受到限制。另外,为了拍摄期望的成像对象的视频,摄影师沿着规定的移动路线移动。
当地图信息没有通过优化处理等更新时,认为地图信息具有误差。因此,即使摄影师沿着规定的路线移动,在显示虚拟空间的显示器中也可能不显示所希望的成像对象。在第一实施方式中,假定即使在显示器上未示出期望的成像对象的情况下,摄影师也沿着预定路线移动。
图2为示出根据本公开第一实施方式的信息处理系统1的配置示例的示意图。信息处理系统1包括成像设备10、三维视频生成设备20和三维视频存储设备30。
成像设备10估计通过同时定位与地图构建(SLAM)所估计的自身位置和姿势。成像设备10是基于估计的结果识别虚拟空间中生成三维视频的区域的设备。换言之,成像设备10是识别虚拟空间中的虚拟相机的成像范围的设备。
成像设备10包括第一相机11、第二相机12、惯性测量单元(IMU)13、位置姿势估计单元14以及显示器15。
第一相机11是对真实空间中的对象进行成像的相机。成像设备10对真实空间中的对象进行成像,以生成其中叠加了真实空间中的成像对象的三维视频。第一相机11生成第一相机图像,该第一相机图像是由第一相机11捕获的图像数据。注意,在不需要在真实空间中对对象进行成像时,成像设备10可以不包括第一相机11。
第二相机12是捕获用于估计成像设备10的自身位置、姿势等的图像的相机。第二相机12生成第二相机图像,该第二相机图像是由第二相机12捕获的图像数据。
惯性测量单元13是包括测量成像设备10的运动状态的各种传感器的设备。例如,惯性测量单元13测量角速度、加速度等。然后,惯性测量单元13生成包括角速度、加速度等的IMU信息。
位置姿势估计单元14基于表示成像设备10的周围环境的地图信息、第二相机图像以及IMU信息来估计成像设备10的自身位置和姿势。自身位置是指示成像设备10的水平位置和垂直位置的信息。姿势是指示由偏航角、滚动角和俯仰角表示的成像设备10的倾斜度的信息。然后,位置姿势估计单元14生成指示成像设备10的位置和姿势的位置姿势信息。此外,位置姿势估计单元14可以基于移动距离、移动方向等来识别成像设备10在虚拟空间中的位置和姿势。
显示器15显示包括在虚拟相机的成像范围中的虚拟空间的三维视频。即,显示器15显示由三维视频生成设备20生成的三维视频。因此,摄影师能够掌握他/她是否正在拍摄虚拟空间中的哪个位置的视频。
三维视频生成设备20基于从成像设备10输出的位置姿势信息,生成与虚拟空间内设置的虚拟相机的成像范围相对应的虚拟空间的三维视频。然后,三维视频生成设备20将生成的三维视频传输至成像设备10和三维视频存储设备30。
三维视频存储设备30存储由三维视频生成设备20生成的三维视频。
接下来,将描述根据第一实施方式的信息处理系统1的每个设备的示意性配置。在此,图3为示出根据本公开的第一实施方式的成像设备10的示意性配置的实例的示图。
第一图像存储单元111是存储由第一相机11捕获的第一相机图像的存储单元。然后,第一图像存储单元111将第一相机图像发送到三维视频生成设备20。
第二图像存储单元121是存储由第二相机12捕获的第二相机图像的存储单元。
IMU信息存储单元131存储由惯性测量单元13生成的IMU信息。
参数存储单元132存储诸如指示第二相机12和惯性测量单元13的设置的参数值的参数信息。例如,第二相机12的设置包括与诸如视角的成像范围有关的设置。惯性测量单元13的设置包括诸如惯性测量单元13的噪声和惯性测量单元13安装的位置的信息。
地图生成单元122基于第二相机图像生成表示成像设备10周围的环境的地图信息。地图信息是用于SLAM的信息。然后,地图生成单元122使地图信息存储单元123存储所生成的地图信息。此外,地图生成单元122对存储在地图信息存储单元123中的地图信息适当地执行诸如优化处理的更新。应注意,地图生成单元122不仅可以基于第二相机图像而且可以基于第二相机图像和IMU信息生成地图信息,或者可以基于其他信息生成地图信息。
位置姿势估计单元14基于地图信息、第二相机图像、IMU信息以及参数信息来估计真实空间中的成像设备10的位置和姿势。具体地说,位置姿势估计单元14生成指示第二相机图像所包含的特征点的图像特征量。然后,位置姿势估计单元14通过将地图信息与图像特征量进行比较来估计自身位置。此外,位置姿势估计单元14基于IMU信息和参数信息生成指示通过成像设备10的测量结果的测量信息。然后,位置姿势估计单元14根据测量信息来估计自身位置和姿势。这样,位置姿势估计单元14基于地图信息、图像特征量以及测量信息来估计自身位置和姿势。
在估计自身位置和姿势的情况下,位置姿势估计单元14生成指示成像设备10的位置和姿势的位置姿势信息。然后,位置姿势估计单元14将位置姿势信息发送到三维视频生成设备20。另外,位置姿势估计单元14将自身位置和姿势的估计所使用的地图信息发送到三维视频生成设备20。
另外,位置姿势估计单元14向三维视频生成设备20发送通过观察真实空间中的成像设备10周围的环境而获得的观察信息。观察信息包括图像特征量和测量信息中的至少一者。另外,位置姿势估计单元14可以将图像特征量和测量信息分别发送到三维视频生成设备20。此外,位置姿势估计单元14可发送至少包括第二相机图像或IMU信息的观察信息,而不是图像特征量和测量信息。
当从三维视频生成设备20接收三维视频时,视频存储单元151存储三维视频。显示控制单元152使显示器15显示存储在视频存储单元151中的三维视频。
在此,图4是示出了根据本发明的第一实施方式的三维视频生成设备20的示意性配置的实例的示图。
位置姿势信息获取单元201获取由成像设备10发送的位置姿势信息。位置姿势信息获取单元201使位置姿势信息存储单元202存储所获取的位置姿势信息。位置姿势信息存储单元202存储由位置姿势信息获取单元201获取的位置姿势信息。
地图信息获取单元203获取由成像设备10发送的地图信息。地图信息获取单元203使地图信息存储单元204存储所获取的地图信息。地图信息存储单元204累积由地图信息获取单元203获取的地图信息。
测量信息获取单元205和图像特征量获取单元207获取通过观察真实空间中的成像设备10周围的环境而获得的观察信息。然后,测量信息获取单元205和图像特征量获取单元207将观察信息累积在存储单元中。这里,观察信息包括图像特征量和测量信息中的至少一者。测量信息获取单元205从成像设备10获取包括在观察信息中的测量信息。测量信息获取单元205使测量信息存储单元206存储所获取的测量信息。测量信息存储单元206累积由测量信息获取单元205所获取的测量信息。
图像特征量获取单元207从成像设备10获取包括在观察信息中的图像特征量。图像特征量获取单元207使图像特征量存储单元208存储所获取的图像特征量。图像特征量存储单元208累积由图像特征量获取单元207获取的图像特征量。
三维图像存储单元209存储构成虚拟空间的三维图像数据。三维图像数据可以包括诸如点云的点群数据,并且还可以包括多边形网格、纹理、通过用三维数据替换空间而获得的体数据以及其他数据。
三维视频生成单元210基于从位置姿势信息获取单元201输出的位置姿势信息所指示的成像设备10的位置和姿势、以及存储在三维图像存储单元209中的三维图像数据来生成虚拟空间的三维视频。具体而言,三维视频生成单元210基于由位置姿势信息指示的成像设备10的位置和姿势,识别设置在与真实空间相对应的虚拟空间中的虚拟相机的位置和姿势。然后,三维视频生成单元210生成与位于所识别的位置处的虚拟相机的成像范围相对应的虚拟空间的三维视频。
再处理确定单元211确定是否使位置姿势再估计单元212基于更新后的地图信息来估计成像设备10的位置。换言之,再处理确定单元211基于更新后的地图信息,确定是否通过估计成像设备10的位置和姿势来识别虚拟相机的位置和姿势。然后,再处理确定单元211基于再估计的结果,确定是否再生成包括在虚拟相机的成像范围内的虚拟空间的三维视频。例如,再处理确定单元211基于指示地图信息是否已通过优化处理等更新的标志来进行确定。
当确定不再次估计成像设备10的位置和姿势时,再处理确定单元211使三维视频存储单元214存储由三维视频生成单元210生成的三维视频。另一方面,当确定要再次估计成像设备10的位置和姿势时,再处理确定单元211不使三维视频存储单元214存储三维视频。另外,再处理确定单元211请求位置姿势再估计单元212和三维视频再生成单元213进行再处理。
在指示成像设备10周围环境的地图的地图信息被更新时,位置姿势再估计单元212基于更新后的地图信息以及测量信息存储单元206和图像特征量存储单元208中累积的观察信息来估计成像设备10的位置。即,位置姿势再估计单元212基于更新后的地图信息、测量信息以及图像特征量来再次估计成像设备10的位置和姿势。更具体地,位置姿势再估计单元212基于更新后的地图信息、累积于测量信息存储单元206的测量信息、以及累积于图像特征量存储单元208的图像特征量来估计成像设备10的位置和姿势。然后,位置姿势再估计单元212输出指示成像设备10在更新后的地图信息中的位置和姿势的更新后的位置姿势信息。
三维视频再生成单元213基于由位置姿势再估计单元212估计出的成像设备10的位置来识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置。然后,三维视频再生成单元213生成与位于所识别的位置处的虚拟相机的成像范围相对应的虚拟空间的三维视频。更具体地,三维视频再生成单元213基于由更新后的位置姿势信息指示的成像设备10的位置和姿势,来识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置和姿势。三维视频再生成单元213生成与位于所识别的位置处的虚拟相机的成像范围相对应的虚拟空间的三维视频。然后,三维视频再生成单元213使三维视频存储单元214存储所生成的三维视频。
另外,当虚拟相机随着成像设备10的移动而移动时,三维视频再生成单元213根据位置姿势再估计单元212估计出的成像设备10的位置,识别虚拟空间内的虚拟相机移动的轨迹。然后,三维视频再生成单元213生成与沿着所识别出的轨迹移动的虚拟相机的成像范围相对应的虚拟空间的三维视频。
三维视频存储单元214存储由三维视频生成单元210或三维视频再生成单元213生成的三维视频。另外,三维视频存储单元214输出与虚拟相机的成像范围相对应的虚拟空间的三维视频。例如,三维视频存储单元214将三维视频发送给成像设备10和三维视频存储设备30。
接下来,将描述由根据第一实施方式的信息处理系统1进行的三维视频生成处理。图5为示出根据本发明第一实施方式的三维视频生成处理的实例的流程图。
成像设备10的位置姿势估计单元14生成指示成像设备10的位置和姿势的位置姿势信息(步骤S1)。
三维视频生成设备20获取从成像设备10输出的各种信息(步骤S2)。即,位置姿势信息获取单元201获取位置姿势信息。地图信息获取单元203获取地图信息。测量信息获取单元205获取测量信息。图像特征量获取单元207获取图像特征量。
三维视频生成设备20累积所获取的各种信息(步骤S3)。即,位置姿势信息获取单元201使位置姿势信息存储单元202存储位置姿势信息。地图信息获取单元203使地图信息存储单元204存储地图信息。测量信息获取单元205使测量信息存储单元206存储测量信息。图像特征量获取单元207使图像特征量存储单元208存储图像特征量。
三维视频生成单元210基于该位置姿势信息,识别设置在与真实空间对应的虚拟空间内的虚拟相机的位置和姿势(步骤S4)。
三维视频生成单元210生成处于所识别的位置和姿势的虚拟相机的成像范围内的虚拟空间的三维视频(步骤S5)。
再处理确定单元211确定是否执行再处理(步骤S6)。换言之,再处理确定单元211再次估计成像设备10的位置和姿势,并且确定是否基于再次估计的位置和姿势再生成三维视频。
在确定不执行再处理的情况下(步骤S6;否),再处理确定单元211使三维视频存储单元214存储由三维视频生成单元210生成的三维视频(步骤S7)。
在判断为执行再处理的情况下(步骤S6;是),位置姿势再估计单元212基于累积的各种信息再次生成成像设备10的位置姿势信息(步骤S8)。
三维视频再生成单元213基于新生成的位置姿势信息,识别设置在与真实空间相对应的虚拟空间中的虚拟相机的位置和姿势(步骤S9)。
三维视频再生成单元213再生成处于所确定的位置和姿势的虚拟相机的成像范围内的虚拟空间的三维视频(步骤S10)。
三维视频再生成单元213使三维视频存储单元214存储所生成的三维视频(步骤S11)。
三维视频存储单元214将存储的三维视频发送到成像设备10和三维视频存储设备30(步骤S12)。
由此,信息处理系统1结束三维视频生成处理。
如上所述,在第一实施方式的信息处理系统1中,三维视频生成设备20累积通过成像设备10观察周围环境而得到的观察信息。即,三维视频生成设备20累积表示由第二相机12捕获的第二相机图像的特征点的图像特征点、基于由惯性测量部13获取到的IMU信息生成的测量信息等。当通过优化处理等更新地图信息时,三维视频生成设备20基于更新后的地图信息和累积的观察信息再次估计成像设备10的位置。另外,三维视频生成设备20基于再估计出的成像设备10的位置来识别虚拟空间内的虚拟相机的位置。然后,三维视频生成设备20执行再处理,以生成与所识别的位置处的虚拟相机的成像范围相对应的虚拟空间的三维视频。如上所述,在生成地图信息时,三维视频生成设备20根据更新后的地图信息生成三维视频。因此,当地图信息被更新时,信息处理系统1根据更新后的地图信息生成三维视频,因此,可以消除由于误差引起的问题。
(第一实施方式的第一变形例)
第一实施方式的第一变形例的再处理确定单元211根据更新前的地图信息与更新后的地图信息之间的差是否为阈值以上,来确定是否执行再处理。
再处理确定单元211基于更新前的地图信息与更新后的地图信息之间的差是否大于或等于阈值来进行确定。更具体地,再处理确定单元211基于在更新前的地图信息与更新后的地图信息之间,与作为地图信息的组成元素的图像相对应的成像设备10的位置之差、与包括在该图像中的三维点群的位置之差的总和是否大于或等于阈值来进行确定。
这里,地图信息包括示出三维真实空间的多个三维图像。再处理确定单元211计算地图信息中包含的所捕获的三维图像之间的成像设备10的位置姿势信息之差与这些三维图像之间的三维点群的位置之差的总和。然后,再处理确定单元211确定差值之和是否为阈值以上。这样,再处理确定单元211确定是否执行再处理。
接着,将描述根据第一实施方式的第一变形例的信息处理系统1a执行的再处理确定。图6是示出根据本公开的第一实施方式的第一变形例的再处理确定的实例的流程图。
地图信息获取单元203获取地图信息(步骤S21)。另外,地图信息获取单元203使地图信息存储单元204存储所获取的地图信息。
地图信息获取单元203获取更新后的地图信息(步骤S22)。另外,地图信息获取单元203使地图信息存储单元204存储更新后的地图信息。
再处理确定单元211确定更新前的地图信息与更新后的地图信息之间的差是否为阈值以上(步骤S23)。在更新前的地图信息与更新后的地图信息之间的差大于或等于阈值的情况下(步骤S23;是),再处理确定单元211确定执行再处理(步骤S24)。
在更新前的地图信息与更新后的地图信息之间的差小于阈值的情况下(步骤S23;否),再处理确定单元211确定不执行再处理(步骤S25)。
如上所述,信息处理系统1a结束再处理确定。
如上所述,在第一实施方式的第一变形例的信息处理系统1a中,三维视频生成设备20a包括再处理确定单元211,再处理确定单元211基于更新后的地图信息确定是否估计成像设备10的位置。因此,三维视频生成设备20a能够适当地判断是否执行再处理。
(第一实施方式的第二变形例)
第一实施方式的第二变形例的再处理确定单元211根据更新前的位置姿势信息与更新后的位置姿势信息之间的差是否为阈值以上,来确定是否执行再处理。
再处理确定单元211根据基于更新前的地图信息和更新后的地图信息估计出的位置姿势信息的变化程度进行确定。更具体地,再处理确定单元211计算由基于更新前的地图信息生成的位置姿势信息和基于更新后的地图信息生成的位置姿势信息所指示的成像设备10的位置和姿势之差。另外,再处理确定单元211确定该差是否为阈值以上。
当该差大于或等于阈值时,再处理确定单元211确定执行再处理。即,在地图信息的更新导致位置和姿势的变化大的情况下,再处理确定单元211确定执行再处理。另一方面,在该差小于阈值的情况下,再处理确定单元211确定不执行再处理。
接下来,将描述由根据第一实施方式的信息处理系统1b执行的再处理确定。图7是示出根据本公开的第一实施方式的第二变形例的再处理确定的实例的流程图。
再处理确定单元211确定地图信息是否已通过优化处理等被更新(步骤S31)。例如,再处理确定单元211对地图信息存储单元204中存储的地图信息进行比较,以确定地图信息是否被更新。应注意,更新确定方法不限于此,并且再处理确定单元211可通过从成像设备10获取指示地图生成单元122是否已更新地图信息的标志来确定地图信息的更新,或者可以通过其他方法确定地图信息是否已被更新。
当地图信息尚未被更新时(步骤S31;否),再处理确定单元211不需要执行再处理,并确定不执行再处理(步骤S32)。
当地图信息已被更新时(步骤S31;是),再处理确定单元211确定由位置姿势信息指示的成像设备10的位置和姿势差是否大于或等于阈值(步骤S33)。具体地,再处理确定单元211将基于紧接在更新前的地图信息生成的位置姿势信息与基于紧接在更新后的地图信息生成的位置姿势信息进行比较,并且确定成像设备10的位置和姿势差是否大于或等于阈值。
当成像设备10的位置和姿势的差小于阈值时(步骤S33;否),再处理确定单元211进入步骤S32,确定不执行再处理。
当成像设备10的位置和姿势的差大于或等于阈值时(步骤S33;是),再处理确定单元211确定执行再处理(步骤S34)。
如上所述,信息处理系统1b结束再处理确定。
如上所述,在根据第一实施方式的第二变形例的信息处理系统1b中,三维视频生成设备20b根据基于更新前的地图信息和更新后的地图信息估计出的位置姿势信息的变化程度,来判断是否需要执行再处理。因此,三维视频生成设备20b能够适当地判断是否执行再处理。
(第二实施方式)
根据第二实施方式的三维视频生成设备20c与根据第一实施方式的三维视频生成设备的不同之处在于,三维视频生成设备20c包括位置姿势校正单元215。
在第一实施方式中,假定摄影师通过沿预定路线移动来拍摄期望的成像对象的视频。在第二实施方式中,假设摄影师根据在显示器15上显示的虚拟空间的三维视频进行移动。
在此,摄影师确认显示器15上的虚拟空间的三维视频。因此,摄影师可以生成期望的三维视频。然而,未被优化的地图信息可包括误差的可能性很高。因此,基于未被优化的地图信息生成的三维视频可能提供比原始计划移动更长的距离和更长时间拍摄的视频。可替换地,基于未优化的地图信息生成的三维视频可能提供比原始计划更短的距离移动和更短时间拍摄的视频。因此,在某些情况下,生成的三维视频包括期望的成像对象,但是具有比原始计划持续时间更长或者比计划持续时间更短的持续时间。
因此,根据第二实施方式的三维视频生成设备20c包括对位置姿势信息进行校正的位置姿势校正单元215。在此,三维视频再生成单元213针对由位置姿势校正单元215所校正的位置姿势信息所指示的每个位置生成三维视频,以生成虚拟空间的三维视频。因此,位置姿势校正单元215对位置姿势信息进行校正,并对成像设备10的位置和姿势进行抽取或添加。由此,允许三维视频再生成单元213生成适合于期望持续时间的三维视频。
在此,图8是示出了根据本公开第二实施方式的三维视频生成设备20c的示意性配置的实例的示图。第二实施方式的三维视频生成设备20c与第一实施方式的三维视频生成设备20的不同之处在于包括位置姿势校正单元215。
位置姿势校正单元215在指示成像设备10的周围环境的地图的地图信息被更新时,校正虚拟相机的位置。这里,位置姿势再估计单元212再次估计成像设备10的位置和姿势。然后,基于成像设备10的位置和姿势,识别虚拟相机的位置和姿势。因此,允许位置姿势校正单元215通过校正成像设备10的位置和姿势来校正虚拟相机的位置和姿势。
具体地,位置姿势校正单元215获取指示三维视频的持续时间的视频持续时间。例如,位置姿势校正单元215接收指示成像设备10的原始移动路线的输入。另外,位置姿势校正单元215基于存储在位置姿势信息存储单元202中的位置姿势信息,计算摄影师的移动速度。然后,位置姿势校正单元215基于原始移动路线和成像设备10的移动速度来计算视频持续时间。注意,除了成像设备10的原始移动路线以外,位置姿势校正单元215还可接收指定视频持续时间的输入。
此外,位置姿势校正单元215基于视频持续时间来校正虚拟相机的位置。即,位置姿势校正单元215执行校正,以添加或省略虚拟相机的位置的,以匹配由位置姿势校正单元215计算出的视频持续时间。位置姿势校正单元215抽取或者添加位置姿势信息,以便匹配原始所需的成像时间。另外,在对位置姿势信息进行抽取的情况下,位置姿势校正单元215可以每隔一定时间对位置姿势信息进行抽取,可以对摄影师等指定的位置姿势信息进行抽取,或者可以对由其他方法指定的位置姿势信息进行抽取。另外,在添加位置姿势信息的情况下,例如,位置姿势校正单元215可以添加在前一位置姿势信息与后一位置姿势信息之间的中间位置姿势信息、可以添加摄影师等指定的位置姿势信息、或者可以添加由其他方法指定的位置姿势信息。
三维视频再生成单元213生成与位于由位置姿势校正单元215校正后的位置的虚拟相机的成像范围相对应的虚拟空间的三维视频。更具体地,三维视频再生成单元213针对由位置姿势校正单元215校正后的虚拟相机的每个位置和姿势,生成与虚拟相机的成像范围相对应的虚拟空间的三维视频。
如上所述,在根据第二实施方式的信息处理系统1c中,三维视频生成设备20c包括位置姿势校正单元215,该位置姿势校正单元215在指示成像设备10周围的环境的地图的地图信息被更新时,对虚拟相机的位置进行校正。另外,位置姿势校正单元215基于视频持续时间校正位置姿势信息,以校正虚拟相机的位置。然后,三维视频再生成单元213针对虚拟相机的每个校正位置,生成与虚拟相机的成像范围相对应的三维视频。如上所述,在地图信息更新时,三维视频生成设备20c校正虚拟相机的位置以生成三维视频,由此能够解决由于误差引起的问题。
(第二实施方式的第一变形例)
在第二实施方式中,通过抽取或添加位置姿势信息来改变视频持续时间。在第一变形例中,校正位置姿势信息以改变视频的位置。
如图1所示,在地图信息更新时,虚拟相机的成像位置改变。然后,当地图信息被更新且成像位置改变时,如果继续成像,则三维视频生成设备20d生成不连续的三维视频。因此,位置姿势校正单元215通过逐步地校正位置姿势信息所指示的位置,来防止生成不连续的三维视频。
位置姿势校正单元215根据基于更新前的地图信息估计出的指示成像设备10的位置的更新前位置、以及基于更新后的地图信息估计出的指示成像设备10的位置的更新后位置,对虚拟相机的位置进行校正。即,位置姿势校正单元215对更新前位置与更新后位置进行组合,以校正虚拟相机的位置。更具体地,位置姿势校正单元215生成将基于更新前的地图信息生成的位置姿势信息和基于更新后的地图信息生成的位置姿势信息进行组合而获得的位置姿势信息。然后,位置姿势校正单元215在对位置姿势信息进行组合时,逐步地改变组合比率。
这里,图9是示出根据本公开的第二实施方式的第一变形例的处理内容的实例的曲线图。假设在时间T1之前,基于更新前的地图信息生成的位置姿势信息的比率为100%。然而,在时间T1,假设基于更新前的地图信息生成的位置姿势信息与基于更新后的地图信息生成的位置姿势信息之差大于或等于阈值。
在这种情况下,位置姿势校正单元215生成通过组合基于更新前的地图信息生成的位置姿势信息和基于更新后的地图信息生成的位置姿势信息而获得的位置姿势信息。另外,位置姿势校正单元215在组合更新前的位置和更新后的位置时,以逐步增加更新后的位置的比率的方式进行组合。由此,校正虚拟相机的位置。即,位置姿势校正单元215在从时间T1到时间T2的时段期间,生成其中基于更新后的地图信息所生成的位置姿势信息的比率增加的位置姿势信息。然后,位置姿势校正单元215将基于更新后的地图信息生成的位置姿势信息的比率提高到100%。因此,位置姿势校正单元215防止生成不连续的三维视频。
如上所述,在根据第二实施方式的第一变形例的信息处理系统1d中,三维视频生成设备20d基于更新前的地图信息和更新后的地图信息,对虚拟相机的位置进行校正。即,三维视频生成设备20d将更新前的虚拟相机的位置和更新后的虚拟相机的位置进行组合以校正虚拟相机的位置。因此,允许三维视频生成设备20d解决由地图信息的误差引起的问题。
(第二实施方式的第二变形例)
在第二实施方式的第一变形例中,当基于更新前的地图信息生成的位置姿势信息与基于更新后的地图信息生成的位置姿势信息之间的差为阈值以上时,开始位置姿势信息的组合。
然而,在三维视频中,当在场景包含成像对象之前或包含成像对象期间开始位置姿势信息的组合时,防止了摄影师原本想要拍摄的视频的生成。因此,在第二实施方式的第二变形例中,接收时间点指定的输入。在时间点指定中,指定了基于更新前的地图信息生成的位置姿势信息与基于更新后的地图信息生成的位置姿势信息的组合开始的时间点。
这里,图10是示出根据本公开的第二实施方式的第二变形例的处理内容的实例的曲线图。假设根据更新前的地图信息生成的位置姿势信息的比率在时间T3之前为100%。然而,在时间T3,假设基于更新前的地图信息生成的位置姿势信息与基于更新后的地图信息生成的位置姿势信息之间的差大于或等于阈值。
然而,直到时间T3为止,其视频由摄影师拍摄的成像对象被包含在三维视频中。因此,位置姿势校正单元215接受起始点指定的输入。在起始点指定中,指定在根据位置姿势信息存储单元202中累积的位置姿势信息所指示的成像设备10的位置而识别的移动路线中开始校正的起始点。这里,起始点可以是指示开始校正的时间的信息、指示开始校正的位置的信息或者其他信息。
位置姿势校正单元215从开始虚拟相机的位置校正的起始点开始虚拟相机的位置校正。换言之,在图10中,位置姿势校正单元215接收指定时间T4作为起始点的输入。然后,位置姿势校正单元215在从时间T4到时间T5的时段期间,生成其中基于更新后的地图信息所生成的位置姿势信息的比率增加的位置姿势信息。
如上所述,在根据第二实施方式的第二变形例的信息处理系统1e中,三维视频生成设备20e被配置为:从指定的起始点开始组合虚拟相机的位置,并在将三维视频留在起始点的同时校正虚拟相机的位置。因此,允许三维视频生成设备20e解决由地图信息的误差引起的问题。
实现根据上述实施方式的信息处理系统1、1a、1b、1c、1d和1e的成像设备10、三维视频生成设备20、20a、20b、20c、20d和20e、以及三维视频存储设备30由例如具有如图11中所示的配置的计算机1000实现。图11是示出根据本公开的实施方式的计算机的硬件配置的框图。
如图11所示,计算机1000包括CPU 1100、RAM 1200、只读存储器(ROM)1300、硬盘驱动器(HDD)1400、通信接口1500、和输入/输出接口1600。计算机1000的组件单元通过总线1050连接。
CPU 1100基于存储在ROM 1300或HDD 1400中的程序来操作,并控制每个组件单元。例如,CPU 1100将存储在ROM 1300或HDD 1400中的程序部署到RAM1200,并且执行与各种程序相对应的处理。
ROM 1300存储引导程序(诸如,在计算机1000引导时由CPU 1100执行的基本输入输出系统(BIOS))、取决于计算机1000的硬件的程序等。
HDD 1400是非暂时性地记录由CPU 1100执行的程序、程序所使用的数据等的计算机可读记录介质。具体地,HDD 1400是记录根据本公开的图像处理程序的记录介质,该图像处理程序是程序数据1450的实例。
通信接口1500是用于将计算机1000连接到外部网络1550(例如,互联网)的接口。例如,CPU 1100经由通信接口1500从另一设备接收数据或者向另一设备发送由CPU 1100生成的数据。
输入/输出接口1600是用于连接输入/输出设备1650和计算机1000的接口。例如,CPU 1100经由输入/输出接口1600从诸如键盘或鼠标的输入装置接收数据。此外,CPU 1100经由输入/输出接口1600将数据传输至诸如显示器、扬声器或打印机的输出装置。此外,输入/输出接口1600可以用作读取记录在预定记录介质上的程序等的介质接口。例如,介质包括诸如数字通用盘(DVD)和相变可重写盘(PD)的光学记录介质、诸如磁光盘(MO)的磁光记录介质、磁带介质、磁记录介质、半导体存储器等。
例如,当计算机1000用作根据上述实施方式的服务器时,计算机1000的CPU 1100执行加载到RAM1200上的程序,以实现上述组件单元的功能中的至少一个。此外,HDD 1400存储根据本公开的程序或者存储在上述存储单元中的至少一个中的数据。注意,CPU 1100执行从HDD 1400读取的程序数据1450,但是在另一实例中,CPU 1100可以经由外部网络1550从另一设备获取程序。
尽管上面已经描述了本公开的实施方式,然而,本公开的技术范围不局限于上述实施方式,并且在不背离本公开的精神和范围的前提下,可做出各种变化。此外,不同实施方式和修改的部件元件可以适当地彼此组合。
此外,在此描述的实施方式中的效果仅是实例,本发明不限于这些效果,并且还可以提供其他效果。
另外,上述各实施方式既可以单独使用,也可以与其他实施方式组合使用。
(效果)
信息处理系统1、1a、1b、1c、1d、1e各自包括位置姿势再估计单元212、三维视频再生成单元213以及三维视频再生成单元213。当指示真实空间中的成像设备10周围环境的地图的地图信息被更新时,位置姿势再估计单元212基于通过观察成像设备10周围的环境而获得的观察信息和更新后的地图信息来估计成像设备10的位置。三维视频再生成单元213基于由位置姿势再估计单元212估计出的成像设备10的位置来识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置。三维视频再生成单元213生成与位于三维视频再生成单元213识别的位置处的虚拟相机的成像范围相对应的虚拟空间的三维视频。因此,信息处理系统1、1a、1b、1c、1d和1e均被配置为即使当通过优化处理等更新地图信息时也生成三维视频。
三维视频再生成单元213基于由位置姿势再估计单元212估计出的成像设备10的位置,确定虚拟相机在虚拟空间中移动的轨迹。三维视频再生成单元213生成与沿着三维视频再生成单元213识别的轨迹移动的虚拟相机的成像范围相对应的虚拟空间的三维视频。该配置使得即使在通过成像设备10给出关于虚拟相机移动的指令时,信息处理系统1、1a、1b、1c、1d和1e也能够生成连续视频。
再处理确定单元211基于更新后的地图信息确定是否使位置姿势再估计单元212估计成像设备10的位置。在此,在某些情况下,对地图信息实施微小的更新,从而不需要再次估计虚拟相机的位置和姿势以生成与估计出的位置和姿势相对应的三维视频。再处理确定单元211使信息处理系统1、1a、1b、1c、1d和1e中的每一个能够适当地确定是否再次执行处理。
再处理确定单元211基于表示地图信息是否被更新的标志来进行确定。因此,再处理确定单元211使得信息处理系统1能够适当地确定是否再次执行处理。
再处理确定单元211根据基于更新前的地图信息和更新后的地图信息估计出的位置姿势信息的变化程度进行确定。因此,再处理确定单元211使得信息处理系统1能够适当地确定是否再次执行处理。
再处理确定单元211基于更新前的地图信息与更新后的地图信息之间的差是否大于或等于阈值进行确定。因此,再处理确定单元211使得信息处理系统1a能够适当地确定是否再次执行处理。
再处理确定单元211基于在更新前的地图信息与更新后的地图信息之间的与作为地图信息的组成元素的图像相对应的成像设备10的位置之差与包括在该图像中的三维点群的位置之差的总和是否大于或等于阈值,来进行确定。因此,再处理确定单元211使得信息处理系统1a能够适当地确定是否再次执行处理。
三维视频存储单元214输出与虚拟相机的成像范围相对应的虚拟空间的三维视频。因此,信息处理系统1使成像设备10的显示器15显示虚拟相机的三维视频。因此,摄影师可以在确认虚拟空间的三维视频的同时移动。
位置姿势校正单元215在指示成像设备10周围环境的地图的地图信息被更新时,校正虚拟相机的位置。三维视频再生成单元213生成与位于位置姿势校正单元215校正后的位置处的虚拟相机的成像范围相对应的虚拟空间的三维视频。因此,允许信息处理系统1、1a、1b、1c、1d和1e各自校正三维视频。
位置姿势校正单元215根据指示基于更新前的地图信息估计出的成像设备10的位置的更新前位置、以及指示基于更新后的地图信息估计出的成像设备10的位置的更新后位置,对虚拟相机的位置进行校正。因此,当由于虚拟相机的位置的变化而提供不连续的三维视频时,允许信息处理系统1d和1e各自通过校正虚拟相机的位置来生成连续的三维视频。
位置姿势校正单元215获取指示三维视频的持续时间的视频持续时间。位置姿势校正单元215根据视频持续时间校正虚拟相机的位置。因此,在视频持续时间不同于最初预期时间的情况下,允许信息处理系统1c将基于更新前的地图信息生成的三维视频的视频持续时间校正为最初预期时间。
位置姿势校正单元215基于原始移动路线和成像设备10的移动速度计算视频持续时间。位置姿势校正单元215执行校正以添加或省略虚拟相机的位置,以便与由位置姿势校正单元215计算出的视频持续时间匹配。三维视频再生成单元213针对由位置姿势校正单元215校正后的虚拟相机的每个位置,生成与虚拟相机的成像范围相对应的虚拟空间的三维视频。因此,在视频持续时间不同于最初预期时间的情况下,允许信息处理系统1c将基于更新前的地图信息生成的三维视频的视频持续时间校正为最初预期时间。
位置姿势校正单元215对更新前的位置和更新后的位置进行组合,以校正虚拟相机的位置。因此,信息处理系统1d和1e各自被允许组合更新地图信息之前的虚拟相机的位置和更新地图信息之后的虚拟相机的位置,以生成连续的三维视频。
位置姿势校正单元215在组合更新前的位置与更新后的位置时,以可以逐步增加更新后的位置的比率的方式执行组合,以校正虚拟相机的位置。因此,允许信息处理系统1d和1e各自逐步地组合更新地图信息之前的虚拟相机的位置和更新地图信息之后的虚拟相机的位置,从而生成连续的三维视频。
位置姿势校正单元215从要开始虚拟相机的位置校正的起始点开始虚拟相机的位置校正。因此,允许信息处理系统1e生成连续的三维视频,同时留下摄影师期望留下的三维视频。
注意,这里描述的效果仅是实例,并且本发明不限于这些效果并且可以具有其他效果。
此外,本技术还可配置如下。
(1)
一种信息处理系统,包括:
估计单元,当指示真实空间中的第一设备周围环境的地图的地图信息被更新时,基于更新后的地图信息和通过观察第一设备周围的环境而获得的观察信息来估计第一设备的位置;
识别单元,基于由估计单元估计的第一设备的位置,识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置;以及
视频生成单元,生成与在识别单元识别出的位置处的相机的成像范围相对应的虚拟空间的视频。
(2)
根据(1)的信息处理系统,其中,
识别单元基于由估计单元估计的第一设备的位置,识别相机在虚拟空间内移动的轨迹,以及
视频生成单元生成与沿着识别单元识别出的轨迹移动的相机的成像范围对应的虚拟空间的视频。
(3)
根据(1)或(2)的信息处理系统,还包括:
确定单元,确定是否使估计单元基于更新后的地图信息估计第一设备的位置。
(4)
根据(3)的信息处理系统,其中,
确定单元基于指示地图信息是否已被更新的标志来进行确定。
(5)
根据(3)的信息处理系统,其中,
确定单元根据基于更新前的地图信息和更新后的地图信息估计出的位置姿势信息的变化程度进行确定。
(6)
根据(3)的信息处理系统,其中,
确定单元基于更新前的地图信息与更新后的地图信息之间的差是否大于或等于阈值进行确定。
(7)
根据(6)的信息处理系统,其中,
确定单元基于在更新前的地图信息与更新后的地图信息之间,与作为地图信息的组成元素的图像相对应的第一设备的位置之差和包括在该图像中的三维点群的位置之差的总和是否大于或等于阈值来进行确定。
(8)
根据(1)至(7)中任一项的信息处理系统,还包括:
输出单元,输出与该相机的成像范围相对应的虚拟空间的视频。
(9)
根据(1)至(8)中任一项的信息处理系统,还包括:
校正单元,在指示第一设备周围的环境的地图的地图信息被更新时,校正相机的位置,
其中,视频生成单元生成与在校正单元校正后的位置处的相机的成像范围相对应的虚拟空间的视频。
(10)
根据(9)的信息处理系统,其中,
校正单元基于更新前的位置和更新后的位置来校正相机的位置,该更新前的位置指示基于更新前的地图信息估计的第一设备的位置,该更新后的位置指示基于更新后的地图信息估计的第一设备的位置。
(11)
根据(9)的信息处理系统,还包括:
时间获取单元,获取指示视频的持续时间的视频持续时间,
其中,校正单元基于视频持续时间来校正相机的位置。
(12)
根据(11)的信息处理系统,其中,
时间获取单元基于第一设备的实际移动的轨迹和移动速度来计算视频持续时间,
校正单元执行校正以添加或省略相机的位置,从而匹配由时间获取单元计算的视频持续时间,以及
视频生成单元针对校正单元校正后的相机的每个位置,生成与该相机的成像范围相对应的虚拟空间的视频。
(13)
根据(10)的信息处理系统,其中
校正单元将更新前的位置与更新后的位置进行组合以校正相机的位置。
(14)
根据(13)的信息处理系统,其中
校正单元在组合更新前的位置与更新后的位置时以可以逐步增加更新后的位置的比率的比率执行组合,并校正相机的位置。
(15)
根据(13)或(14)的信息处理系统,其中
校正单元从开始校正相机的位置的起始点开始校正相机的位置。
(16)
一种信息处理方法,包括:
当指示真实空间中的第一设备周围环境的地图的地图信息被更新时,基于通过观察第一设备周围的环境而获得的观察信息和更新后的地图信息来估计第一设备的位置;
基于估计的第一设备的位置,识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置;以及
生成与在识别出的位置处的相机的成像范围相对应的虚拟空间的视频。
(17)
一种程序,用于使计算机用作:
估计单元,当指示真实空间中的第一设备周围环境的地图的地图信息被更新时,基于更新后的地图信息和通过观察第一设备周围的环境而获得的观察信息来估计第一设备的位置;
识别单元,基于由估计单元估计的第一设备的位置,识别设置在与真实空间相关联的虚拟空间中的虚拟相机的位置;以及
视频生成单元,生成与在识别单元识别出的位置处的相机的成像范围对应的虚拟空间的视频。
参考标号列表
1、1a、1b、1c、1d、1e 信息处理系统
10 成像设备
12 第二相机
13 惯性测量单元
14 位置姿势估计单元
15 显示器
20、20a、20b、20c、20d、20e 三维视频生成设备
30 三维视频存储设备
152 显示控制单元
201 位置属性信息获取单元
202 位置属性信息存储单元
203 地图信息获取单元
205 测量信息获取单元
207 图像特征量获取单元
206 测量信息存储单元
208 图像特征量存储单元
209 三维图像存储单元
210 三维视频生成单元
211 再处理确定单元
212 位置姿势再估计单元
214 三维视频存储单元
213 三维视频再生成单元
215 位置姿势校正单元。

Claims (17)

1.一种信息处理系统,包括:
估计单元,在指示真实空间中的第一设备周围的环境的地图的地图信息被更新时,基于更新后的地图信息和通过观察所述第一设备周围的环境而获得的观察信息来估计所述第一设备的位置;
识别单元,基于由所述估计单元估计的所述第一设备的位置,识别设置在与所述真实空间相关联的虚拟空间中的虚拟相机的位置;以及
视频生成单元,生成与在所述识别单元识别出的位置处的所述相机的成像范围相对应的所述虚拟空间的视频。
2.根据权利要求1所述的信息处理系统,其中,
所述识别单元基于由所述估计单元估计的所述第一设备的位置,识别所述相机在所述虚拟空间内移动的轨迹,以及
所述视频生成单元生成与沿着所述识别单元识别出的所述轨迹移动的所述相机的所述成像范围相对应的所述虚拟空间的视频。
3.根据权利要求1所述的信息处理系统,还包括:
确定单元,确定是否使所述估计单元基于更新后的所述地图信息来估计所述第一设备的位置。
4.根据权利要求3所述的信息处理系统,其中,
所述确定单元基于指示所述地图信息是否已被更新的标志来进行确定。
5.根据权利要求3所述的信息处理系统,其中,
所述确定单元根据基于更新前的所述地图信息和更新后的所述地图信息估计出的位置姿势信息的变化程度进行确定。
6.根据权利要求3所述的信息处理系统,其中,
所述确定单元基于更新前的所述地图信息与更新后的所述地图信息之间的差是否大于或等于阈值来进行确定。
7.根据权利要求6所述的信息处理系统,其中,
所述确定单元基于与作为所述地图信息的组成元素的图像相对应的所述第一设备的位置在更新前的所述地图信息与更新后的所述地图信息之间的差、和包括在所述图像中的三维点群的位置在更新前的所述地图信息与更新后的所述地图信息之间的差的总和是否大于或等于阈值,来进行确定。
8.根据权利要求1所述的信息处理系统,还包括:
输出单元,输出与所述相机的成像范围相对应的所述虚拟空间的视频。
9.根据权利要求1所述的信息处理系统,还包括:
校正单元,在指示所述第一设备周围的所述环境的地图的所述地图信息被更新时,校正所述相机的位置,
其中,所述视频生成单元生成与在所述校正单元校正后的位置处的所述相机的成像范围相对应的所述虚拟空间的视频。
10.根据权利要求9所述的信息处理系统,其中,
所述校正单元基于更新前的位置和更新后的位置来校正所述相机的位置,所述更新前的位置指示基于更新前的所述地图信息估计的所述第一设备的位置,所述更新后的位置指示基于更新后的所述地图信息估计的所述第一设备的位置。
11.根据权利要求9所述的信息处理系统,还包括:
时间获取单元,获取指示视频的持续时间的视频持续时间,
其中,所述校正单元基于所述视频持续时间来校正所述相机的位置。
12.根据权利要求11所述的信息处理系统,其中,
所述时间获取单元基于所述第一设备的实际移动的轨迹和移动速度来计算所述视频持续时间,
所述校正单元执行校正以添加或省略所述相机的位置,以便匹配由所述时间获取单元计算的所述视频持续时间,并且
所述视频生成单元针对所述校正单元校正后的所述相机的每个位置,生成与所述相机的成像范围相对应的所述虚拟空间的视频。
13.根据权利要求10所述的信息处理系统,其中,
所述校正单元将所述更新前的位置与所述更新后的位置进行组合来校正所述相机的位置。
14.根据权利要求13所述的信息处理系统,其中,
所述校正单元以组合更新前的位置与更新后的位置的比率,通过逐步增加所述更新后的位置的比率的组合,来校正所述相机的位置。
15.根据权利要求13所述的信息处理系统,其中,
所述校正单元从开始所述相机的位置的校正的起始点开始校正相机的位置。
16.一种信息处理方法,包括:
当指示真实空间中的第一设备周围的环境的地图的地图信息被更新时,基于更新后的所述地图信息和通过观察所述第一设备周围的环境而获得的观察信息来估计所述第一设备的位置;
基于估计的所述第一设备的位置,识别设置在与所述真实空间相关联的虚拟空间中的虚拟相机的位置;以及
生成与在识别出的位置处的所述相机的成像范围相对应的所述虚拟空间的视频。
17.一种程序,用于使计算机用作:
估计单元,在指示真实空间中的第一设备周围的环境的地图的地图信息被更新时,基于更新后的所述地图信息和通过观察所述第一设备周围的环境而获得的观察信息来估计所述第一设备的位置;
识别单元,基于由所述估计单元估计的所述第一设备的位置,识别设置在与所述真实空间相关联的虚拟空间中的虚拟相机的位置;以及
视频生成单元,生成与在所述识别单元识别出的位置处的所述相机的成像范围相对应的所述虚拟空间的视频。
CN202080083377.1A 2019-12-10 2020-12-01 信息处理系统、信息处理方法和程序 Pending CN114762007A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-223185 2019-12-10
JP2019223185 2019-12-10
PCT/JP2020/044697 WO2021117552A1 (ja) 2019-12-10 2020-12-01 情報処理システム、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
CN114762007A true CN114762007A (zh) 2022-07-15

Family

ID=76330228

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080083377.1A Pending CN114762007A (zh) 2019-12-10 2020-12-01 信息处理系统、信息处理方法和程序

Country Status (4)

Country Link
US (1) US20220366661A1 (zh)
JP (1) JPWO2021117552A1 (zh)
CN (1) CN114762007A (zh)
WO (1) WO2021117552A1 (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
JP5837848B2 (ja) * 2012-03-02 2015-12-24 株式会社日立製作所 画像処理装置、画像処理システム、画像処理方法
US10949712B2 (en) * 2016-03-30 2021-03-16 Sony Corporation Information processing method and information processing device
CN110520691B (zh) * 2017-04-03 2021-09-10 三菱电机株式会社 映射图数据生成装置和方法
WO2018207426A1 (ja) * 2017-05-09 2018-11-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7046506B2 (ja) * 2017-06-12 2022-04-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7014205B2 (ja) * 2019-06-05 2022-02-01 株式会社デンソー 表示制御装置および表示制御プログラム

Also Published As

Publication number Publication date
JPWO2021117552A1 (zh) 2021-06-17
US20220366661A1 (en) 2022-11-17
WO2021117552A1 (ja) 2021-06-17

Similar Documents

Publication Publication Date Title
JP4895857B2 (ja) 車両挙動再現方法
CN107888828B (zh) 空间定位方法及装置、电子设备、以及存储介质
JP4947060B2 (ja) 画像合成装置、画像合成方法、プログラム
CN105493496B (zh) 一种视频处理方法、装置及图像系统
JP3862688B2 (ja) 画像処理装置及び画像処理方法
US20200234466A1 (en) Object pose estimation in visual data
KR101335391B1 (ko) 영상 합성 장치 및 그 방법
EP2073539A1 (en) Image processing device, dynamic image reproduction device, and processing method and program in them
CN110235431B (zh) 电子增稳方法、图像采集设备、可移动平台
EP2399239A1 (en) Estimation of panoramic camera orientation relative to a vehicle coordinate frame
WO2018053400A1 (en) Improved video stabilization for mobile devices
CN112907620A (zh) 相机位姿的估计方法、装置、可读存储介质及电子设备
CN114762007A (zh) 信息处理系统、信息处理方法和程序
KR102218843B1 (ko) 스테레오 카메라를 이용한 중첩 레이어 기반의 멀티 카메라 증강현실 방송시스템 및 그 제공 방법
KR102314782B1 (ko) 3차원 증강현실 표시 방법
CN111955005B (zh) 处理360度图像内容的方法和系统
KR20180133052A (ko) 360도 이미지 및 비디오 기반의 증강현실 콘텐츠 저작 방법
WO2019000427A1 (zh) 一种图像处理方法、装置及电子设备
EP4075392A1 (en) Information processing system, information processing method, and program
KR101741150B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
CN113139456A (zh) 电子设备状态跟踪方法、装置、电子设备及控制系统
CN115546295B (zh) 目标6d姿态估计模型训练方法及目标6d姿态估计方法
JP2010011050A (ja) 動画像処理装置、カメラ一体型画像記録装置、動画像再生装置、遠隔操作システム、動画像処理プログラム、記憶媒体及び、動画像処理システム
US12035044B2 (en) Methods and apparatus for re-stabilizing video in post-processing
US20230109047A1 (en) Methods and apparatus for re-stabilizing video in post-processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination