CN104054023A - 用于与机器人控制的物体映射的3d投影的系统和方法 - Google Patents

用于与机器人控制的物体映射的3d投影的系统和方法 Download PDF

Info

Publication number
CN104054023A
CN104054023A CN201280067229.6A CN201280067229A CN104054023A CN 104054023 A CN104054023 A CN 104054023A CN 201280067229 A CN201280067229 A CN 201280067229A CN 104054023 A CN104054023 A CN 104054023A
Authority
CN
China
Prior art keywords
projection
projection surface
game
effect device
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280067229.6A
Other languages
English (en)
Other versions
CN104054023B (zh
Inventor
J.林内尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
X Development LLC
Original Assignee
Ou Tefasi Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ou Tefasi Co filed Critical Ou Tefasi Co
Publication of CN104054023A publication Critical patent/CN104054023A/zh
Application granted granted Critical
Publication of CN104054023B publication Critical patent/CN104054023B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/393Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume the volume being generated by a moving, e.g. vibrating or rotating, surface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39109Dual arm, multiarm manipulation, object handled in cooperation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Electric Motors In General (AREA)
  • Image Processing (AREA)

Abstract

提出了一种用于运动控制的系统,在一个实施例中,运动控制3D投影系统包括投影仪;和联接至机器人臂的投影表面,其中,机器人臂使投影表面移动通过一组空间坐标,且来自投影仪的3D投影被投影到投影表面的一组空间坐标上,且在投影表面移动通过该组空间坐标时,将3D投影匹配至投影表面的该组空间坐标。在附加实施例中,主控制系统可集成附加的机器人臂和其他装置,以建立随主时间线的运动控制场景。

Description

用于与机器人控制的物体映射的3D投影的系统和方法
技术领域
本发明的实施例涉及自动化系统和控制在视听演示的创建中的使用。更具体地,本发明的实施例涉及通过机器人运动控制使用投影映射的系统和方法。
背景技术
3D投影映射是创建物理上不存在的物体和环境的幻象的技术。通过将光投射在从具体视角得到的表面上,观察者感知实际上物理上不存在的环境。
运动控制是一种自动化技术,其中一个或多个物体的位置使用一些类型的装置控制,所述装置诸如机器人臂。在视频、影片商业片、电影、以及其他这样的视听作品的制造中,摄像机和物体在被摄像机捕获的场景中的布置和运动是主要考虑的内容,以及成本和时间的源。已知在电影工业中使用运动控制,其中,摄像机作为视频场景的创建和记录的一部分被安装和控制。该技术通常称为运动控制摄影。
发明内容
示出了运动控制系统的各实施例。在一个可行实施例中,3D投影表面与投影仪匹配。一个或两个物体可被安装在机器人臂上,所述机器人臂用作用于场景的装置作用器(device actor),所述场景被设定为随时间和空间改变,其中装置作用器移动投影表面,且投影仪将被投影图像呈现在投影表面上。在一个实施例中,这实现场景作用器的运动控制,该运动控制使用装置作用器被部分地机械地制作动画,和使用来自投影仪的投影实现部分地计算机制作动画。
附图说明
图1示出了根据此处本创新的一个实施例的运动控制摄影系统的块图,该系统包括主场景控制器。
图2示出了机器人的透视图,其用于与根据此处本创新的一个实施例的运动控制摄影系统一起使用。
图3a示出根据此处本创新的一个实施例的具有7个自由度的机器人的视图。
图3b示出根据此处本创新的一个实施例的具有附连的摄像机的机器人的视图。
图3c示出根据此处本创新的一个实施例的具有灯光单元的机器人的视图。
图4a示出了肘节安装件的视图,其用于与根据此处本创新的一个实施例的机器人臂一起使用。
图4b示出根据此处本创新的一个实施例的具有肘节安装件的机器人的视图。
图5a示出了主输入器的一个可行实施例,其用于与根据此处本创新的一个实施例的运动控制系统一起使用。
图5b示出根据此处本创新的一个实施例的整合通过主控制器的装置作用器位置的时间线。
图6a示出了根据此处本创新的一个实施例的运动控制摄影系统的块图,该系统包括主场景控制器。
图6b示出根据此处本创新的一个实施例的控制方法。
图7示出根据本创新的各实施例的计算机或电子装置的一个可行实施例。
图8示出此处本创新的一个实施例的用于软件控制器的可行用户接口。
图9示出此处本创新的一个实施例的用于软件控制器的可行用户接口。
图10示出了根据此处本创新的一个实施例的运动控制摄影系统的块图,该系统包括主场景控制器。
图11示出包括3D投影映射的系统的一个可行实施方式。
图12示出包括3D投影映射的系统中的投影仪的一个可行实施方式。
图13示出包括3D投影映射的系统的一个可行实施方式。
图14示出包括3D投影映射的系统的一个可行实施方式。
图15示出包括3D投影映射的系统的一个可行实施方式。
图16示出包括3D投影映射的系统的一个可行实施方式。
图17示出包括3D投影映射的系统的一个可行实施方式。
图18示出包括3D投影映射的系统的一个可行实施方式。
图19示出包括3D投影映射的系统的一个可行实施方式。
图20示出用于包括3D投影映射的系统的用户接口的一个可行实施方式。
图21示出用于包括3D投影映射的系统的用户接口的一个可行实施方式。
具体实施方式
这里公开的创新的实施例包括用于提供具有三维(3D)投影映射的增强运动控制的系统和方法。特别地,所述系统和方法描述了一种系统,所述系统具有附连至可控机器人臂的三维投影表面、用于将动画投影透射到3D投影表面上的投影仪、和用于将3D投影的运动与从投影仪到3D投影表面上的投影同步的附连系统。
一个可行实施例用在动画电子的领域中,或用于建立表现类似的动画机器人(animated robot)。在这样的实施例中,投影表面被定形为被演示的生物的形式,诸如恐龙、猴子、或一些其他生物。生物的一些部分难以使用物理机械装置建立。诸如眼睛和嘴唇的面部特征在历史上难以机械地重新建立。一个或多个投影仪被定位有从投影仪至所有或部分投影表面的光学路径,且眼睛和嘴的动画投影被透射到投影表面上。投影表面随后被移动,以模拟被模仿的生物的走路、头部运动、或其他特征运动。当投影表面的该运动发生时,眼睛和嘴的投影匹配投影表面的运动,因此,眼睛和嘴的位置在投影表面上保持相对静止,同时眨眼和嘴瞬间的幻象发生。如果这样的系统包括足够强大的计算机动画软件,则被投影特征的运动可被实时控制,以例如将嘴的运动与正被建立的声音匹配,这实现与动画电子机器人的无脚本对话。
进一步地,这样的投影系统的一些实施例包括多个投影表面、多个投影仪、和附加的系统装置,诸如声音、环境灯光、和集成到主控制系统中的其他这样的效果,以通过一系列脚本(scripted)和同步组件实现前进和后退运动以及可控速率。附加的实施例还包括集成的安全特征结构,用于防止在装置移动的区域内正在操作的人或装置之间的碰撞。
图1描述了运动控制系统100。运动控制系统100是用于使用运动控制摄影术拍摄场景的运动受控组件的一部分。运动控制系统包括主控制器10、输入和反馈系统20、装置作用器40和安全系统90。从最基础的视角来看,当输入系统20将指令经由主控制器10提供给装置作用器40时,运动控制系统100工作。
为了本发明的目的,场景包括由装置作用器40在连续时间段上进行的一组运动和动作,从而摄像机前方的一组表演者在视频、声音、或在这两方面被记录。表演者是人、静止的物体、或被装置作用器40的一个或多个装置控制或移动的物体。在一个实施例中,摄像机安装至装置作用器40的机器人臂。在场景开始时,摄像机和多个表演者在第一位置开始。装置作用器40的运动控制器使摄像机和表演者通过一系列运动移动至场景的结束处,其中来自被记录场景的声音和表演者使用摄像机以及可能地其他音频和视频记录组件来捕获运动。
在作为运动控制系统100的一部分的一个可能实施例中,输入和反馈系统20包括数据库22、主输入器24、软件控制器26、和独立手动控制器28。作为输入和反馈系统20的一部分,数据库22操作为提供一组计时和位置数据以指导所有或一部分装置作用器40。替换地,数据库22存储通过手动或单个移动创建的数据,或与装置作用器40的操作和功能相关的被输入的数据。数据库22还存储独立于装置作用器40创建的数据,诸如使用软件控制器26的软件建模特征而建立的数据。
主输入器24是用于操作与特定场景相关联的所有装置作用器40的任何装置,所述特定场景通过运动控制系统100建立。主输入器24通过将输入控制信号发送至主控制器10而工作。主控制器10则改编来自主输入器24的信号,以将单独的控制信号发送至作为用于特定场景的装置作用器40操作的多个作用器。在一个可行实施例中,当从主输入器24接收到信号时,来自主控制器10的控制信号被提供至装置作用器40的每个单独的装置,所述信号包括至不作为用于特定场景的装置作用器40操作的装置的保持现状或无动作的信号。在替换实施例中,作为运动控制系统100的一部分而被连接的一部分装置作用器不从作为用于特定场景的运动控制系统100的操作的一部分的主控器发送任何信号。
软件控制器26在经由主控制器10发送控制信号至所述多个作用器的过程中用作对主输入器24的替代。替换地,软件控制器26控制装置作用器40中的单独的装置,以更替、改变、或试验单独装置的运动。在其他可行的实施例中,软件控制器26用于为虚拟环境中的装置作用器40的单独装置的行为建模。在这样的实施例中,软件控制器26包含用于单独装置的软件模型,所述模型允许为装置建立控制信号,而不实际发送控制信号至装置。控制信号则存储在软件控制器26中,在数据库22中,在作为主控制器10的一部分的计算机存储器部件内,或在控制器被建立所针对的装置作用器40的装置的一部分的计算机存储器内。在控制信号被软件控制器26建立且传至适当的存储位置之后,来自软件控制器26或主输入器24的主控制信号激活针对单独装置的控制信号,以与其他装置作用器40共同作用。
装置作用器40的一些装置还具有独立手动控制器28。如上关于软件控制器26所描述的,用于单独装置的控制信号在软件建模中被建立。类似地,装置可具有用于操作装置作用器40的装置的独立手动控制器28。例如,在一个可行实施例中,作为装置作用器40中的一个的装置是控制摄像机的焦点的跟焦装置。跟焦装置可具有控制装置,所述控制装置设计为控制可作为独立手动控制器操作的摄像机的焦点。当一组指令针对整个场景被建立时,独立手动控制器28被给予随时间的输入命令,所述输入命令被记录到数据库22或主控制器10的存储器装置。在使用独立手动控制器28建立一组指令期间,独立手动控制器28可与装置作用器40的相关联装置直接通信。替换地,独立手动控制器28可发送控制信号至主控制器,主控制器10随后将信号输送至装置作用器40的相关联装置。控制信号于是可以从独立手动控制器28的信号被建立,或从由相关联装置的操作建立的被测量反馈读数被建立。另外,尽管在许多情况下优选的是在控制信号建立期间使独立手动控制器28实际控制相关联装置以便查看结果,但控制信号可在不需对装置进行控制的情况下被建立。例如,如果对于一些时间标记,期望的输入信号被期望,则独立手动控制器28独立于相关装置操作,且控制操作被记录。这些以这样的方式工作:用于装置作用器40的单独装置作用器被集成到作为运动控制系统100的一部分的运动受控场景中。
上述集成的结果被视为用于运动受控场景的全局时间线。在以下被更详细描述的图5B中提供了说明性示例,其中,多个运动受控作用器的动作使用主控制器集成到全局时间线中。在图5b中,在场景期间,诸如摄像机和照明机器人的各个作用器在一些点处移动。作用器在整个场景期间从时间a至时间f接收控制信号,或可仅当它们实际移动或作用时接收控制。一些其他作用器,诸如第一和第二特殊效果(fx)作用器仅接收信号命令,以在一个特定时间处作用,诸如第一fx作用器在图5b的全局时间线中的时间b处作用。这样的至全局时间线的集成允许影响整个场景的复杂动作的简化的使用者控制,其可在通过给定时间线改动特定场景时节省大量时间。这允许向前和向后调节(scrub through)时间,以及寻求针对特定场景中的所有作用器的特殊帧编号和时间码,且经由软件装置减慢或加速整个组件(系统)在真实时间中的表现。
尽管将参考特殊实施方式说明实施例,但本领域技术人员将理解,这些实施方式描述了可具有除具体描述的实施方式之外的广阔用途的创新。如下所述,增强的控制可包括用于多个功能的系统和方法,包括安全系统、回放速度控制、前进和回退位置调节、和集成的检测系统等。
这样的系统相对于本领域当前已知的系统的优势在于,在由自定制工具组支配的艺术环境中提供可访问且高度精妙的机器人控制,而没有简单或可扩展集成工具组。在一些实施例中,高准确度控制系统与摄像机的这种使用被视为“电影自动化”或“3D投影自动化”,其允许视觉故事讲述者的意图通过自动化系统的应用而被匹配。例如,改进的控制系统可协调空间中的摄像机的亚毫米位置与灯光、演员、包括3D投影表面的机器人作用器、和特殊效果(烟火使用、视频回放、声效等)的位置。这允许高度复杂的拍摄,其之前会要求多个设置部门与手工人为定位的协调。这样的控制系统通过事件的高度准确的计算机同步去除了不准确性并引入了机器人的再现性。除了开发更快、更牢固、更安全且容易编程的机器人臂系统,本创新的实施例包括允许有创造力的导演进行非常快的现场调整的接口。在长片和商业生产的高压环境中,重要的是总监或视觉效果总监能够进行非常快的创意或技术命令,且此处描述的系统能够以之前领域中未知的方式实现这一点。
作为另一例子,如果本创新的系统实施方式用在实况演播中的场景的展示中,则系统可能同步大机器人臂、使臂移动的定制机器人架、用作光源的LED的墙的视频回放、和背景块以及电子动物化演员(animatronic actor)的运动,所述电子动物化演员具有从附连至动画计算机的投影仪制作动画而来的面部特征与被机器人表现的臂或腿的运动。这是高技术预编程的场景,所述场景已经在计算机中事先可见,且所有元素的相互影响已经使用所述系统精心策划。播放期间的真实时间,如果作用器正在以比正常慢的速率传递它们的线,或需要暂停用于额外的掌声,播放导演可通过暂停整个组件或通过简单地在正确时刻转动旋钮以调节作用器来补偿真实时间。机器人减慢,机器人架顺从,播放的整个场景减速。所有这些同步发生。加之所述系统可提供集成的增强安全性,以防止作用器损伤。
现在参考图2-4,装置作用器40的多个非限制性例子将被描述。尽管这些图集中在机器人臂的使用上,但如在后面的描述中,装置作用器是静止的其他类型的装置,诸如传感器、静止灯光、和信号源。
图2描述了装置作用器242。装置作用器242包括机器人臂246、安装点248和导轨244。装置作用器242在图2中示出,没有具体功能装置附连在任何安装点处,诸如安装点248。安装点248构造为保持摄像机、灯光、将被摄像机摄制的表演者、或任何其他相关装置或物体。在一些实施例中,指令被给予,以将安装点定位在具体方位处,且导轨244和机器人臂246的轴线的位置通过相关运动控制系统的过程被计算。在替换实施例中,机器人臂246的每个轴线和导轨244的位置需要分开的、单独的设定和控制命令。
图3a描述了所述作用器342,包括具有轴线A1-A6的机器人臂,轴线A0与未示出的一导轨相关联,该导轨允许其他八个轴线的侧-侧运动。图3b描述了具有摄像机安装件352的装置作用器342,摄像机安装件352布置在安装点处,且摄像机350附连至摄像机安装件352。图3c描述了具有灯光360的装置作用器342,灯光布置在安装点处。
图4a和4b描述了一实施例,其中装置作用器442包括机器人臂444,机器人臂具有肘节安装件410和肘节安装接口412。肘节安装件410和肘节安装接口412使得,除了标准安装件(诸如舌形件或照明器材)之外,多个装置作用器能够被安装到机器人臂444。在一些实施例中,肘节安装接口使得温度传感器、激光范围检测器、麦克风、扬声器、风扇、或其他机械激活的或特殊效果装置可行。
图5a描述了主输入器524,主输入器524是诸如图1的主输入器24的主输入器的一个可行实施方式。主输入器524包括显示接口510、接合控制器540、模式选择器530、和模拟接口520。主输入器524的功能将连同图5b的全局时间线一起描述。
图5b描述了与运动受控场景的一个可行实施例相关联的全局时间线,所述运动受控场景在诸如图1的运动控制系统100的运动控制系统中实施。图5b包括多个作用器,如上所述,所述作用器在场景期间以名义或标准运行时间从时间a至时间f操作。全局时间线是名义的,且不指真实钟表时间,如下面将进一步详细描述的,因为主输入控制器改变作用器从场景开始到结束时运动进展的速率。全局时间线可因此交替地被认为是用于作用器的协调位置图表。在场景运转期间,作用器可在整个场景期间、在一部分场景期间、或针对场景的一个瞬间作用或移动。但是每一个作用器将从场景的开始至结束针对每一个名义时间具有预定点。针对每一个作用器的预定点与针对每一个另外的作用器的预定点相关联。
在一个可行实施例中,用于特定装置作用器的单独控制信号可被配位(coordinated)至主控制器的存储器内的单个文件中,共用基本时间由主控制器内的主时钟提供。在操作期间,主控制器从每一个装置作用器提取控制信号,且将单独的控制信号以适当的间隔提供给每一个装置作用器。在替换实施例中,主控制器维护用于不同装置作用器的计时数据和分开的单独控制信号文件,且从单独控制文件分立地同步不同控制信号。
在另一替换实施例中,用于一部分装置作用器的控制数据被主控制器传输至相关单独装置作用器内的存储器。在操作中,具有存储器内的控制数据的装置作用器仅接收同步信号,所述同步信号指示全局时间线中的位置、全局时间线进展的速率、或两者。
图5b中描述的特定实施例包括摄像机机器人、跟焦装置、两个照明机器人、控制要出现在摄像机前方的物体的演出者机器人、和两个特殊效果作用器。如上所述,每个作用器具有在场景中跟随的从在时间a开始到在时间f结束的路径。在图5b的特定实施例中,每个作用器在预先设定位置处开始。如由全局时间线描述的,仅表演者机器人从时间a移动至时间b。这将是真的,无论b发生在开始时间a之后10秒,或在时间a之后20秒,这由于场景进展的速率被主输入器改变造成,如下面进一步详细描述的。在事件b,第一特殊效果作用器通过单个命令被激活,表演者机器人继续移动,且跟焦装置和摄像机机器人开始移动。
图5b的图表不意图指示非移动作用器(诸如第一照明机器人、第二照明机器人、和第二fx作用器)在时间a至时间b期间不接收输入命令。图5b仅示出全局位置时间线。在一些实施例中,它们可以不接收来自主控制器的输入命令。但是,在替换实施例中,非移动作用器(诸如第一照明机器人)周期性地或连续地接收来自主控制器的命令,甚至当不移动时,其中,命令是不要移动的指令。这样的命令可用于保持同步,用作时钟或计时搏动以保持同步。在一些实施例中,在场景期间对作用器进行真实时间调整。这样的时钟或计时搏动进一步用于提供同步数据作为调整反馈给主控制器,以更新或改变全局时间线。
返回参考图5a,主输入器524包括显示接口510。显示接口510是模块化触摸屏装置,其显示与作用器或全局时间线相关的状态信息。例如,显示接口510包括与全局时间线中的作用器的当前位置相关联的场景时间,或与当前时间线相关的当前场景的帧编号。在这样的显示中,当作用器处于用于场景的开始的位置中时,时间a,例如,或帧1,被显示。在一个可行实施例中,显示接口510是便携式电子装置或蜂窝式电话,其具有与主控制器通信的接口应用。
主输入器524还包括接合控制器540。由于许多作用器(特别是承载以高达每秒几米移动的沉重摄像机的大型工业用机器人臂)的尺寸和力能够在碰撞中传输,安全控制对运动受控场景的许多实施例是极其重要的。接合控制器540用作输入调节器,即防止主输入器524意外被操作,从而,接合控制器必须在任何其他输入命令从主输入器524传送和作用之前一直被压下。
如在图5a中示出的,主输入器524还包括模式选择器530和模拟接口520。模拟接口520是能够限定由用户控制器进行的输入的方位的任何输入装置。在一个可行实施例中,模拟接口520是轮,所述轮具有弹簧作用装置,其将轮在没有用户操作的情况下返回至中央位置。在其他可行实施例中,模拟接口是杆、滑动突出部、或是用户能够输入信号的任何其他输入控制器。主输入器524可包括多个输入模式。在一个可行实施例中,主输入器524包括重置模式、播放模式、和浏览模式,模式可经由模式选择器530选择。
在重置模式中,接合控制器540和模拟接口520的操作操作为使得场景内的每个作用器移动至用于全局时间线的开始的初始位置。另外,具体场景或帧编号通过显示接口510的使用而被选择,且操作使得每个作用器移动至与全局时间线中的帧或时间相关联的位置。这样的模式可允许对于特定时间没有就位的装置作用器被重置到正确位置。
在播放模式中,模拟接口520的操作可用于加速或减慢全局时间线中场景中进展的进程。例如,在作用器在全局时间a处设置就位的场景中,选择接合控制器540可用于以基础速率开始所有作用器通过全局时间线的动作,其中时间的每一秒均与通过全局时间线的进展的每一秒相关联。模拟接口520沿第一方向的操作于是用于减慢通过全局时间线的进展,使得真实时间的1秒与通过全局时间线的进展的0.5秒相关联。如果模拟接口520随后被设置回中心,则通过全局时间线的进展将回复至随真实时间的一对一定量,但保持动作将从初始开始处由于之前的减慢而延迟。相反地,如果模拟接口520沿与第一方向相反的第二方向操作,则通过全局时间线的进程被增加。如果,例如,从时间a至时间b的名义时间是10秒,则以10%增加通过全局时间线的进程可以以大约0.9秒减少运动受控场景从时间a的位置进展至时间b的位置所需的实际时间,和从时间a至时间b的进展所需的实际时间,其中模拟接口设定为增加回放约9.1秒。这可当被摄像机记录为运动受控场景的一部分的人类表演者比期望更快或更慢地传递线时使用,且期望将运动受控场景的动作与每一运动受控的人类表演者的动作匹配。
在浏览模式中,选择接合控制器540和随后操作模拟接口520可操作为以连续方式通过全局时间线穿梭往返或向前或向后浏览。例如,如果运动受控组件当前具有处于与时间c相关联的位置的作用器,则选择穿梭往返模式并沿第一方向操作模拟接口520可使得左右作用器连续向前移动通过与全局时间线相关联的位置,以到达时间d。沿第二方向移动模拟接口520可使得所有作用器连续向后移动通过与全局时间线相关联的位置,到达与时间b相关联的位置。在一个可行实施例中,使用显示接口50选择特定时间或帧。模拟接口520的操作可连续地穿梭往复全局时间线的位置,直到到达特定时间或帧。主输入器524则可停止以控制装置作用器,直到显示接口510中的选择被激活,知晓已经到达之前选择的点,或直到模拟接口520被返回至中央位置。
图6a描述了运动控制系统的块图。运动控制系统600包括主控制器610,以及输入、反馈、和装置作用器子系统的一个可行实施例的细节。在运动控制系统600披露的实施例中,主控制器610包括操作系统61、主控制逻辑612、主时钟616、网络支持618、控制逻辑696和反馈698。主控制器610的元件在计算机系统中执行,所述计算机系统包括通用功能处理器和存储器硬件系统。替换地,主控制器610在定制设计的处理、存储和网络硬件装置中执行,或在通用目的计算系统的抽象硬件层中执行。主时钟616用作真实时间时钟,以协调系统中的作用器的运动。主控制装置612用于将单独控制信号集成到主时间线中,且将控制信号正确地发送至正确的装置,两者均在通过主时间线的整个运动控制场景期间,且通过装置作用器定位的设定和单独的改动,以及使用控制逻辑696的功能。主控制逻辑612还有助于反馈698的协调和发送。反馈698可包括从附连至装置作用器的监视器接收的实际位置和设定信号。一个可行的例子是附连至机器人臂的定位装置。臂的实际位置经由定位装置追踪,以提供与从数据库622、软件控制器657或用于机器人臂的另外的控制输入器发送至臂的输入位置命令相关的反馈和校准。操作系统614包括用于与装置作用器交互的专门库和功能,且可进一步用于管理基础硬件计算功能,诸如存储器存储和处理器使用。操作系统614可进一步实现经由OS网络654与各个相关装置通信的网络能力。
网络支持件618可还实现从主控制器610经由网络620至相关装置、作用器和输入控制器的通信。在一个可行实施例中,网络620可包括根据IEEE1588操作的EtherCAT网络。在这样的实施例中,包不再被接收,于是在每个连接点处作为处理数据被解释和复制。替代地,帧在每一个从属节点中使用域总线存储管理单元在运行中被处理。每一个网络节点读取专用于其的数据,同时电报被转送至下一装置。类似地,在电报通过时,输入数据被插入。电报仅延迟几纳秒。在主要方面,可商业上获得的标准网络接口卡或宽以太网控制器可以作为硬件接口。这些接口的共同特征是经由直接存储器存取至主控制器的数据传输,其中没有CPU容量被占据用于网络接入。EtherCAT协议使用官方指派的在以太网框架内的以太类型。该以太类型的使用允许控制数据在以太网框架内直接传输,而不必重新定义标准以太网框架。框架可包括多个子电报,每个可服务于大小能够达到4千兆字节的逻辑处理图像的特定存储区域。以太网终端的编址可以任何顺序,因为数据序列独立于物理顺序。从属节点之间的广播、多点传送和通信是可行的。以太网框架中的直接传输在其中EtherCAT部件在与主控制器相同的子网中操作且其中控制软件具有至以太网控制器的直接入口的情况下使用。EtherCAT的布线灵活性通过不同电缆的选择而被进一步最大化。柔性且廉价的标准以太网接线电缆可选地以以太网模式(100BASE-TX)或以E-Bus(LVDS)信号表示传输信号。塑料光纤(POF)可用在用于较长距离的特殊应用中。以太网网络的完成带宽,诸如不同光纤和铜电缆,可用在与开关或媒体转换器的通信中。快速以太网(100BASE-FX)或E-Bus可基于距离需求被选择。快速以太网物理性质实现装置之间的100m长度的电缆,同时E-Bus线用于模块化装置。网络的大小几乎是无限制的,这是由于直至65535个装置可被连接。
进一步地,使用EtherCAT的这种实施例支持用于与被分配时钟的准确对准同步的方法,如IEEE1588标准中描述的。与完全同步通信相反,其中同步质量在通信故障的事件中立即受损,被分配的被对准时钟由于通信系统内的可行的故障相关延迟而具有高容差度。
因此,数据交换是完全硬件的,其基于“母亲”和“女儿”时钟。每个时钟可简单地且准确地确定其他时钟运行时间,因为通信利用了逻辑和全双工以太网物理环结构。被分配时钟可基于该值被调整,这意味着非常精确的网络宽度时间基础与显著小于1微妙的抖动可获得。
但是,高分辨率的被分配时钟不仅用于同步,还可提供关于数据获取的本地计时的准确信息。例如,控制器频繁地从顺序被测量的位置计算速度。特别地通过非常短的采样时间,甚至是位移测量中的小的临时抖动导致的速度的大的阶跃变化。在包括EtherCAT的实施例中,EtherCAT扩展数据类型(时间戳数据类型采样过密数据类型)被引入。局部时间在直至10ns的分辨率的情况下链接至被测量值,由以太网提供的较大带宽使其可行。速度计算的准确度则不再取决于通信系统的抖动。其是比基于无抖动通信的测量技术的数量级更好的数量级。
最后,在网络620包括EtherCAT的实施例中,热连接功能使得网络的一些部分能够“在运行中”被联接和被解耦或重新配置。许多应用需要在操作期间I/O配置的改变。EtherCAT系统的协议结构考虑到这些改变的配置。
如在图6a中描述的,网络620于是经由控制数据接口650与单独的装置和作用器相接。控制数据接口是网络620的一部分,或可在单独的作用器的输入端处包括被分配部件。此外,输入和反馈数据接口与控制数据接口是相同的装置,用作与网络620相接的相同装置的相反方向数据流。与网络620相接的作用器包括摄像机控制器632、副控制器634、音频装置636、数字输出组件648、摄像机机器人670、跟焦装置672、灯光674、主输入器650、和主安全控制器690。
在一些实施例中,一些作用器可经由控制数据接口650直接通信至网络620。例如,在网络620是EtherCAT网络的上述实施例中,摄像机控制器632、副控制器634、音频装置636、和数字输出组件648能够在没有适配器的情况下通过网络620通信。在这样的实施例中,适配器662a是用于与摄像机机器人670通信的EtherCAT-provibus适配器。适配器662b是用于与跟焦装置672通信的EtherCAT-preston适配器,适配器662c是用于控制灯光674的EtherCAT-dmx适配器。
除了经由网络620与主控制器610通信的装置和主控制器610之外,运动控制系统600可包括多个其他输入、反馈、和装置,诸如OS网络654、数据库622、数据库接口652、MI显示器656、软件控制器657、视频输入器658、和适配器655a-c。在一个可行实施例中,OS网络654是联接至主控制器610的以太网网络。MI显示器656可以以类似于关于图5a的主输入器524描述的显示器的方式用作用于主输入器650的显示器。软件控制器657可用作软件环境,所述软件环境可实际地建立用于与主控制器610一起使用的全局时间线,且可还用于与装置作用器的活动控制一起建立真实时间的全局时间线。在一个实施例中,软件控制器657是诸如具有软件附件的MAYATM的软件程序。最后,视频输出器658是与运动控制系统600中的摄像机相关联的真实时间视频输出器。在运动控制系统移动通过全局时间线时,视频输出器可允许运动受控组件的真实时间视频查看,从而单独的装置作用器被改动,或主输入器650控制基于来自视频输出器658的信息而被调整。
图6a的运动控制系统600可于是允许以各种不同方式的媒体的功能和建立,且如图6b所描述的。在图6b描述的实施例中,用户可使用诸如软件控制器657的软件接口建立控制数据。控制数据可随后被存储在数据库622中,用于将来使用。替换地或同时地,控制数据被发送至主控制器610。主控制器则管理控制逻辑696并建立全局时间线,从而特定装置在工作之前需要的任何数据被通信至那些装置。例如,在一个可行实施例中,摄像机机器人670在操作之前必须具有所有位置数据,其中摄像机机器人670通过接收时间或帧输入与全局时间线同步工作,且使用之前接收的控制信息响应地作用,以移动至用于全局时间线的当前状态的正确位置。在主控制器610准备好全局时间线之后,且所有装置作用器被准备好,用户可使用主输入器650或软件控制器657将操作信号发送至主控制器610。给定了全局时间线位置和同步,主控制器随后将适当的控制信号发送至单独的装置作用器。装置作用器则根据控制信号操作,且经由网络620发送反馈信号,所述反馈信号记载实际操作、错误、和/或安全停止条件。反馈数据可随后用于更新被主控制器610管理的控制信号,以改动或匹配来自数据库622或软件控制器657的原始控制数据。
在一个可行实施例中,运动控制系统600包括主安全控制器690。主安全控制器可包括硬接线停止控制器,其直接连接至被识别为造成安全风险的装置作用器。这样的关闭控制器附连至主输入器650。在另一可行实施例中,主安全控制器690包括附连至安全传感器的安全计算系统或安全PLC。这样的安全传感器可包括附连至装置作用器的物体邻近检测器。当场景在运动控制系统600中被建立时,场景将具有用于期望装置作用器和用于出现在场景中的表演者的数据。物体邻近检测器被编程或被联接至计算系统,以将期望物体与期望方位与不期望的物体和方位过滤分开。如果物体被物体邻近检测器检测到处于不期望和不安全的方位,则发送信号以停止整个运动受控场景,或至少,停止被确定为造成对不期望物体的潜在损害的装置作用器。在一个可行实施例中,用于运动受控场景的边界被确定。邻近检测器或运动检测器配置为在运动控制系统的操作期间检测跨过场景边界或装置作用器边界的运动,以及当不安全运动或物体被检测到时停止操作。以该方式,主安全控制器可观察邻近各装置作用器的区域,且传输安全停止信号。在一个可行实施例中,物体检测器包括光检测和测距单元(LIDAR)。在另一可行实施例中,物体检测器是无源红外传感器(PIR)。
图7示出示例性计算机组件的块图,所述计算机组件可用于本发明的一些实施例中(例如,在前面图中示出的部件中)。
图7中所示的子系统经由系统总线708互连。诸如打印机708、键盘718、固定盘720(或其他包括计算机可读介质的存储器)、联接至显示适配器712的监视器714、和其他的附加子系统被示出。联接至I/O控制器702的外围和输入输出(I/O)装置可通过任何数量的现有技术中已知的器件连接至计算机系统,诸如通过串行端口716。例如,串行端口716或外部接口722可用于将计算机组件连接至诸如互联网的广域网、鼠标输入装置、或扫描仪。经由系统总线710的互连允许中央处理器706与每一个子系统通信,且控制来自系统存储器704或固定盘720的指令的执行,以及子系统之间的信息交换。系统存储器704和/或固定盘720可体现为计算机可读介质。
图8示出了软件控制器中的用于与运动控制摄影系统一起使用的用户接口的一个可行实施例。这样的接口可实现多个功能,包括单独的装置作用器的建模、单独的装置作用器的软件控制、用于单独的装置作用器的控制数据的建立、和记录用于单独的装置作用器的控制或操作数据。类似地,多个装置同时被建模以使用诸如用户接口1200的接口来模拟、控制或记录整个运动受控组件的操作。
用户接口1200可包括作用器面板,所述作用器面板具有多个接口按钮,包括“作用器”下拉菜单,以示出场景的当前装置作用器列表;和“添加作用器”场景,以提出一提示,该提示允许装置作用器的名字和/或类型的选择被建立或被添加至场景;以及“删除装置作用器”接口,以允许将作用器从场景删除。
用户接口1200可还包括选择面板。选择面板可包括用于“选择末端执行器”的接口,其选择机器人上的控制器,该控制器允许用户经由肘节驱动所述机器人。该控制器,当被选择且通过通道框编辑器查看时,可包含用户可控制的附加属性。这些属性可包括:
可见性-在视口中转换控制器的可见性。
禁用危险警告显示(HUD)更新-禁用视口中的所有HUD更新。
A(1-6)角度-限制每一个相应机器人轴线的当前角度。
跟踪机器人(TR)位置-显示跟踪轴线上的机器人的位置。
显示轴线-在视口中转换架构的可见性。
FK IK(A1-A6)-允许单独接头的切换设定。
选择面板可还包括“选择基本控制”接口,其可选择机器人上的控制器,该控制器允许用户将机器人从基部定位。这样的控制器,当被选择且通过通道框编辑器查看时,可包含用户可操控的附加属性,诸如:
平移Z-沿跟踪系统移动基部。
旋转Y-改变基部的取向。
柱高度-改变机器人的基部高度。
选择面板可还包括附加的接口控制,诸如:
选择跟踪控制器-选择机器人上的控制器,其允许用户按照他们的喜好移动和取向跟踪系统,进一步描述了末端执行器和该节点之间的断开连接。
选择世界空间安装件(worldspace mount)-选择用于添加安装件的控制器。
选择世界控制器-选择主控制器,其允许用户一起移动和取向整个机器人和跟踪系统。
此外,用户接口1200可提供用于添加安装件至软件系统内的装置作用器和移除安装件的控制器,以及用于设定被添加到装置作用器的安装件的布置的控制器。例如,图8示出用于将摄像机安装至机器人臂的三个可行位置,所述机器人臂是当前系统中的装置作用器。用户接口1200可提供用于在各个安装选项之间进行选择以及用于调整与这样的设定相关联的位置变量的图形化或数字输入选项。
在运动控制摄影系统的一个可行实施例中,用户接口1200通过软件控制器,诸如图6a的软件控制器657和摄像机机器人670,集成到摄像机机器人,以实现自动的系统校准。一个可行的这样的校准包括透镜节点校准,用于确定安装在机器人臂的摄像机中的被校准透镜位置。这样的校准的一个可行实施例包括为软件控制器657提供关于基部、肘节或接头元件、和用于摄像机机器人670的摄像机安装件的方位和尺寸的信息。还提供了具有已知特征(诸如方位和尺寸)的校准播放器(calibration player)。当校准命令经由软件控制器657被选择时,摄像机机器人670记录来自不同摄像机角度或方位的校准播放器的多个图像。图像连同关于校准播放器和摄像机机器人670的已知数据一起允许当前安装的摄像机的透镜节点被计算且并入到在软件控制器657中建模的装置作用器中。
在校准的一个替换实施例中,软件接口1200可具有校准命令,用于响应于来自温度传感器的反馈而改变尺寸或方位数据。例如,软件控制器657经由数字输出组件658从温度传感器接收数据,所述温度传感器附连至作为摄像机机器人670的一部分的导轨。软件控制器657配置为由于导轨特性随温度的已知改变而调整命令信号,或配置为信号通知响应于温度变化而测量装置作用器方位变化的需要。
诸如图1的软件控制器和图6a的软件控制器657的软件控制器可还包括分析接口,诸如图9的分析接口。分析接口1300示出针对装置作用器的单独轴线的运动数据。诸如当前速度和当前加速度的数据被显示,连同这些特征随时间通过场景的图形、针对每个特征的最大可允许限制、和针对每个特征的最大获得值。分析接口1300的值从建立在软件控制器内或记录在数据库中的全局时间线被建模。所述值还可以是从通过场景显示的装置作用器的实际物理运动记录的值。这样的分析数据的使用可提供对场景的改动,同时快速地验证装置作用器的安全限制没有被错误地超过。
除了单独装置作用器的操作的分析,软件控制器用于在检测在为在作用器通过全局时间线的运动建模中装置作用器之间的潜在碰撞中的预防性安全性。进一步地,通过全局时间线的场景的这样的建模用于设定针对安全系统的安全性参数,诸如图6a的主安全控制器690。通过全局时间线的装置作用器的方位和速度的建模可实现在运动控制系统周围的区域或布置中不安全地带或不安全时间的识别。这样的识别用于设定物体检测器的传感触发器,所述物体检测器是上述安全系统的一部分。例如,如果某一装置作用器的5英尺内的区域被确定处于碰撞风险,且需要额外10英尺的缓冲地带来确保操作期间的安全性,则LIDAR检测器配置为在操作期间检测装置作用器的15英尺区域内的不期望物体和运动,且如果物体被检测到则自动地建立安全停止。在替换实施例中,LIDAR检测器配置为,如果物体在危险地带的周边中被检测到,则建立警告型号,且如果被检测物体正朝向潜在冲击地带移动,则仅建立停止。
在替换实施例中,软件控制器包括被限定安全地带的作用器和模型的建模。在软件控制器中的作用器的运动的分析允许被建模的安全性检查,以查看是否任何作用器与被限定安全地带碰撞。安全地带由进入软件控制器的空间的固定容积的入口限定,通过设定方位的图像捕获。安全地带可还被限定为基于物体在安全地带中的被检测运动、急动、速度、或加速度的变量。在替换实施例中,安全地带由来自发射机应答器装置数据的输入限定。例如,发射机应答器定位装置附连至表演者,且安全地带由距发射机应答器的距离限定。发射机应答器将方位数据馈送至软件控制器,软件控制器可更新软件控制器内的或主安全控制器内的安全地带。在另一实施例中,固定的安全地带被限定在软件控制器内,且在运动受控组件的操作之前在主安全控制器内的安全性PLC之前公开。
图10描述了固件版本创新的运动控制系统的替换实施例。运动控制系统700的功能和操作与上述运动控制系统的详细描述一起被理解。
实施例的之前描述被提供以使本领域任何技术人员实践本发明。对这些实施例的各种改动将对本领域技术人员是显而易见的,且这里限定的一般原理应用于其他实施例而不使用创新能力。因此,本发明不意图限制至这里所示的实施例,但使最广的范围与这里披露的原理和新特征一致。
本发明的实施例不限于上述实施例。例如,贯穿说明书,装置作用器和机器人的各个例子被示出用于在运动控制摄影系统中使用。实施例不限于这里提供的一般的或特殊的例子,但可包括从上述描述对本领域普通技术人员明显的其他实施例。通过进一步的例子,以上描述提供了可选择为用于主输入器的输入模式的三个模式的说明。本发明的实施例不限于这些模式,但可使用附加的模式,附加的模式可不同于示出的模式。
应理解,如上所述的本发明可以控制逻辑的形式使用计算机软件以模块化或集成方式被实施。基于这里提供的公开和教导,本领域普通技术人员可知晓和意识到其他方式和/或方法来使用硬件以及硬件和软件的组合来实施本发明。
本申请中描述的任何软件部件或功能被实施为要被处理器使用任何合适的计算机语言执行的软件代码,所述计算机语言譬如Java、C、或Perl,使用例如传统的或面向对象技术。软件代码被作为一系列指令、或命令存储在计算机可读介质上,诸如随机存取存储器(RAM)、只读存储器(ROM)、诸如硬盘驱动器或软盘的磁介质、或诸如CDROM的光学介质。
任何这样的计算机可读介质可驻于单个计算组件上或其内,且存在于系统或网络内的不同计算组件上或其内。
上述描述是说明性的,而不是限制性的。本发明的许多变化例将在查看本公开时对本领域技术人员变得明显。因此,本发明的范围应不仅参考以上描述被确定,而是应该参考所附权利要求连通它们的全部范围和等同内容一起被确定。
来自任何实施例的一个或多个特征与任何其他实施例的一个或多个特征结合,而不背离本发明的范围。为了本发明的目的,陈述“一”或“该”意图意指“一个或多个”,除非具体指示为相反含义。
替换实施例的描述陈述,存在于特定替换实施例中的实施例的某些部分被描述,以及某些实施例包括被描述的元件。
除了上述实施例,一些实施方式涉及具有3D投影映射的运动控制系统。在3D投影映射中,当光被投射在从特定透视法得到的表面上时,向观察者呈现实际上物理上不存在的环境的视觉投影。
在3D投影映射中,物理空间维度和投影表面的坐标的知晓对实现期望效果是必要的。传统地,这些维度方位是固定的,且因此不变化。
在根据本发明的一个可行实施例中,投影表面处于通过一体积的运动中。具体地,表面通过机器人(伺服)促动装置而被移动,由此投影表面的确切物理方位对系统已知。除了经由受控方法移动投影表面的内容之外,实施例还包括投影仪经由受控方法至已知坐标的运动。这例如可用于提供来自正确获得的透视的准确演示给处于运动平台(即,展示物或乘坐装置上的乘客车辆)上的观察者。通过将投影表面布置在机器人平台或臂的末端执行器上,系统的一些实施例能够将投影表面或物体移动至x.y.z(笛卡尔)空间中的具体已知坐标。由于物体的确切方位已知(通过机器人编码器反馈,以及被编程位置),我们能够通过3D(虚拟)空间(实时)中的映射将影响投影在表面上。
系统的实施例因此在传统3D投影映射方法中产生该效果,由此我们建立投影表面/物体的3D模型(虚拟),以考虑视角和透视来计算正确的结果。该结果最后作为光被透射到物体上。
这样的系统被并入有任何上述软件控制器或主控制系统,以建立视听演示,所述视听演示被控制、编程和改动以实现集成有上述软件系统、安全性和灯光的3D投影映射视听演示的改进的编辑和建立。
图11描述了3D投影映射视听演示系统的一个可行实施例。图11示出装置作用器1142、安装在装置作用器1142上的投影仪1150、装置作用器1144和安装在装置作用器1144上的投影表面1140。投影仪1150可接收或包括,在投影表面1140被装置作用器1144移动通过一组空间坐标时,用于将图像投影在投影表面1140上的信号信息。在替换实施例中,装置作用器1142和1144两者均移动通过空间坐标,或仅装置作用器1142移动。空间坐标由主控制系统、计算机、或用于控制装置作用器的任何其他已知期间提供。作为系统的一部分,投影到表面1140上的图像基于装置作用器1144通过该组空间坐标的运动的已知信息而被建立。
例如,装置作用器1142和1144联接至软件控制系统,诸如图1的软件控制器,或具有运动控制系统700的视频输出器702的软件控制器726。该系统已被嵌入与投影表面1140和期望的视觉演示相关的信息。手动控制允许用户手动地调整投影表面1140的空间位置,而软件控制器被编程为自动地调整从投影仪的图形化输出,以建立期望的视觉演示。替换地,软件控制器使用动画描述期望的视觉演示,且软件控制器使用装置作用器1142和1144自动地调整投影仪1150和投影表面1140,以在投影表面1140上建立期望的视听演示。
在一个可行实施例中,联接至投影仪的动画控制系统将动画投影到投影表面上。动画控制系统包括用于改动投影的3D动画的接口。动画控制系统可包括基于从物理地控制投影表面的方位的装置作用器接收的控制信息而进行的投影表面的当前方位和投影表面的相关坐标演示。接口可因此实现为投影表面引入的相关坐标系统内的动画的改动。在投影表面被装置作用器移动时,动画控制系统接收指示该运动的信号。系统随后基于调整角度来补偿,以建立3D投影的适当表示和透视。例如,在投影表面远离相对于投影仪为法向的一位置倾斜时,投影被转换为呈现来自投影仪的较窄的输出,其将跨过倾斜投影仪分布,以保持来自投影表面的恒定图像。来自投影仪的光输出功率可类似地增加,以保持从投影表面的恒定亮度。来自动画控制系统的输出信号将自动地调整投影仪处的投影,以将动画保持在投影表面上的相对坐标系统中的适当方位处。在一个实施例中,多个投影仪可以相同或交替次数将相同3D动画投影到投影表面上。如果投影表面旋转使得至投影表面的第一投影仪光学路径被阻断,则处于第二方位的具有未阻断光学路径的第二投影仪可随后将相同3D动画投影到投影表面上。
在另外的实施例中,通过场景的组件的运动和设定模型可进一步包括从投影仪至投影表面的光学路径的建模。调整组件或场景运动的主控制器或动画计算机系统可产生警告,如果对于组件和场景的变化产生光学路径的阻碍的话,所述阻碍会阻断部分3D投影且阻止投影表面处的3D投影的演示。
图12-21示出根据本创新的3D运动控制投影系统的可行实施方式的附加细节。图12示出3D投影的一个可行实施方式,其中投影仪1150投影到投影表面1140上。图13-19示出安装在装置作用器1144上的投影表面的一个实施方式。在这些图中,大致球形的投影物体具有投影到表面上的计算机生成的面。这是投影的例子。在装置作用器移动投影表面时,所述面的被投影图像保持投影表面上的适当位置,且所述面的特征被制作动画,以制造闪动的眼睛、移动的嘴、和移动投影表面上的其他3D动画。这可匹配值与投影表面相关联的一组坐标。投影表面1140移动或平移通过一组坐标,且投影表面1140上的面投影的相对方位可在投影表面移动通过空间中的该组坐标时在投影表面上的投影坐标系统内保持稳定。这主要呈现了移动性和动画的幻象,对于不大可能的极复杂的面部动画,使用机械面部动画使其可行。图20和21示出了显示器中的用户接口2010中的投影表面的计算机模型。装置作用器与到投影屏幕上的图像的投影和装置作用器的运动同时操作。关键可实现来自装置作用器的空间信息的使用和可视化,以及被投影图像在真实时间或接近真实时间中的调整和控制。
在各个实施例中,投影表面则集成由主控制系统中的如上所述的场景。整个场景的运动与时间线匹配,且3D投影的动画也与时间线匹配,从而当进行对场景的速度的手动或控制系统调整时,3D投影表面的动画和运动也被调整且与整个场景的运动匹配。在一个可行实施例中,投影表面是非平面投影表面。在另一替换实施例中,投影表面是背面平面投影表面。在另一替换实施例中,组件包括平面投影表面和非平面3D投影表面。
在另外的实施例中,3D计算机动画投影是主控制时间线中的场景的的一部分,而且具有与真实时间输入匹配的动画的一些部分。例如,如果来自演员的声音和说出的话被表现为来自动画装置作用器,则嘴的运动的3D投影被实时与人类演员说出的话匹配。3D投影动画的一些部分和投影表面的运动,诸如眼睛闪动,被预先确定和自动化,同时嘴的运动的投影具体适于对观众隐藏的人类演员。
在各实施例中,于是用于具有运动控制的3D投影的系统包括投影仪;联接至第一装置作用器的投影表面,其中,第一装置作用器使投影表面移动通过一组空间坐标,且来自投影仪的3D投影被投影到投影表面的一组空间坐标上,且在投影表面移动通过该组空间坐标时,将3D投影匹配至投影表面的该组空间坐标。另外的替换实施例包括联接至投影仪的动画计算机系统,所述投影仪将3D投影映射到投影表面上且制作3D投影动画,同时在非平面投影表面移动通过该组空间坐标时,将3D投影与投影表面的该组坐标匹配。在替换实施例中,动画计算机系统进一步联接至装置作用器,且动画计算机系统提供该组空间坐标给装置作用器,以指示装置作用器将非平面投影表面移动通过该组空间坐标。
附加的替换实施例包括主控制器,主控制器接收多个控制信号,所述控制信号包括用于包括第一装置作用器的多个装置作用器的控制数据,且主控制器将所述多个控制信号与全局时间线同步以建立多个同步信号,使得用于装置作用器中的每一个作用器的控制数据与全局时间线中的对应位置相关联;和主输入器,其将主输入信号输送至主控制器,指示全局时间线中的位置和通过全局时间线的进展速率;其中,主控制器通过将与全局时间线中的位置相关联的所述多个同步信号通信至所述多个装置作用器而响应于主输入信号,且用于装置作用器中的每一个作用器的控制数据被以通过全局时间线的进展速率发送至相应装置作用器。
在附加的替换实施例中,主输入器包括模拟输入器、节点选择器和模拟输入动作控制器;当没有力施加至模拟输入器时,模拟输入动作控制器将模拟输入返回至第一位置;对于主输入器的第一被选择模式,模拟输入器沿第一方向的调整从预定标准前进速率增加了通过全局时间线的进展的速率;对于主输入器的第一被选择模式,模拟输入器沿不同于第一方向的第二方向的调整从预定标准前进速率降低了通过全局时间线的进展的速率;对于主输入器的第二被选择模式,模拟输入器沿第一方向的调整从固定速率建立了沿前进方向的进展的可变速率;以及对于主输入器的第二被选择模式,模拟输入器沿第二方向的调整从固定速率建立了沿倒退方向的进展的可变速率。
在附加的替换实施例中,动画计算机系统包括实时输入,用于改动3D投影,同时在投影表面移动通过该组空间坐标时将3D投影保持在投影表面的该组坐标内。
附加的替换实施例包括物体检测器,物体检测器观察接近所述多个装置作用器中的第一装置作用器的区域,并当物体检测器感测到物体时,将安全停止信号传输至第一装置作用器。
附加的替换实施例包括主安全控制器;其中,主安全控制器包括可编程逻辑电路;且其中,安全停止信号经由可编程电路传输至所述多个装置作用器的每一个。
在附加的替换实施例中,第一装置作用器是机器人臂,物体检测器附连至机器人臂的安装点,且其中,接近第一装置作用器的区域包括从物体检测器延伸一固定距离的区域。
在附加的替换实施例中,接近第一装置作用器的区域随时间以预定方式改变,所述预定方式与全局时间线中的位置和通过全局时间线的进展的速率相关联地确定。
另一替换实施例包括用于运动控制的方法。该方法的一个实施例包括使用联接至投影表面的第一装置作用器将投影表面移动通过一组空间坐标;从投影装置使用来自动画计算机的信号将3D投影投射到投影表面上;和使用动画计算机将3D投影映射到投影表面上,以将3D投影运动与投影表面通过该组空间坐标的运动匹配。
附加的替换实施例包括在主控制器处接收控制数据,单独控制数据用于包括第一装置作用器的多个装置作用器;
使用主控制器将多个控制信号与全局时间线同步,以建立多个同步信号,使得用于装置作用器中的每一个作用器的控制数据与全局时间线中的对应位置相关联;在主控制器处接收主输入信号,主输入信号指示全局时间线中的位置和通过全局时间线的进展速率;和响应于主输入信号将与全局时间线中的位置相关联的所述多个同步信号从主控制器通信至所述多个装置作用器,其中,所述多个同步信号以由主输入信号指示的通过全局时间线的进展速率被发送至所述多个装置作用器。
附加的替换实施例包括使用至少一个物体检测器检测接近所述多个装置作用器的区域;和将安全停止信号从所述至少一个物体检测器传输,所述安全停止信号阻止所述多个装置作用器操作。
附加的替换实施例包括方法,其中,通过全局时间线的进展的速率包括通过全局时间线的进展的倒退速率。
附加的替换实施例包括在所述多个同步信号的通信期间在主控制器处接收来自独立的手动控制器的用于所述多个装置作用器中的第一装置作用器的改动控制输入;将改动控制输入与所述多个同步信号同步,
以在所述多个同步信号的通信器件建立更新的多个同步信号;和取代所述同步信号而通信所述更新的多个同步信号。
附加的替换实施例包括将所述更新的多个同步信号存储在数据库中,其中,控制数据从数据库在主控制器处被接收。
附加的替换实施例包括在主控制器处接收来自所述多个装置作用器的反馈数据,所述反馈数据描述
与同步控制信号相关联的操作特征;和响应于所述反馈数据而改动同步控制信号。
附加的替换实施例包括实时调整来自动画计算机的信号,以基于用于在动画计算机处的输入在投影表面处建立实时计算机动画。
附加的替换实施例计算机可读介质,其存储用于被计算机系统实行的指令,其用于实施使用运动控制创作影片的方法,该方法包括:使用包括计算机装置的软件控制器针对多个装置作用器、至少一个投影仪、和处于运动控制组件中的至少一个投影表面物理特征和方位建模;使用软件控制器针对处于运动控制组件中的所述多个装置作用器,为运动特征和从所述至少一个投影仪至所述至少一个投影表面的光学路径建模,以建立用于所述多个装置作用器的控制数据;使用软件控制器分析所述多个装置作用器的方位、物理特征和运动的建模,以检测碰撞、光学路径的阻碍,和检测超过一组预定操作限制的装置作用器运动;将控制数据通信至主控制器,所述主控制器同步控制数据且将控制数据传输至所述多个装置作用器。
在附加的替换实施例中,该方法进一步包括使用软件控制器分析所述多个装置作用器的方位、物理特征和运动的建模,以确定接近包括碰撞风险的装置作用器的一组方位,并包括将该组方位传输至包括至少一个物体检测器的主安全控制器。

Claims (20)

1.一种具有运动控制的用于3D投影的系统,包括:
投影仪;和
联接至第一装置作用器的投影表面,其中,第一装置作用器使投影表面移动通过一组空间坐标,且来自投影仪的3D投影被投影到投影表面的一组空间坐标上,且在投影表面移动通过该组空间坐标时,将3D投影匹配至投影表面的该组空间坐标。
2.如权利要求1所述的系统,还包括:
联接至投影仪的动画计算机系统,其将3D投影映射到投影表面上且制作3D投影动画,同时在非平面投影表面移动通过该组空间坐标时,将3D投影匹配至投影表面的该组坐标。
3.如权利要求2所述的系统,其中,动画计算机系统进一步联接至装置作用器,且动画计算机系统提供该组空间坐标给装置作用器,以指示装置作用器将非平面投影表面移动通过该组空间坐标。
4.如权利要求3所述的系统,还包括:
主控制器,主控制器接收多个控制信号,所述多个控制信号包括控制数据,用于包括第一装置作用器的多个装置作用器,且主控制器将所述多个控制信号与全局时间线同步以建立多个同步信号,使得用于装置作用器中的每一个作用器的控制数据与全局时间线中的对应位置相关联;和
主输入器,其将主输入信号输送至主控制器,指示全局时间线中的位置和通过全局时间线的进展速率;
其中,主控制器通过将与全局时间线中的位置相关联的所述多个同步信号通信至所述多个装置作用器而响应于主输入信号,且用于装置作用器中的每一个作用器的控制数据被以通过全局时间线的进展速率发送至相应装置作用器。
5.如权利要求4所述的系统,其中,主输入器包括模拟输入器、节点选择器和模拟输入动作控制器;
其中,当没有力施加至模拟输入器时,模拟输入动作控制器将模拟输入器返回至第一位置;
其中,对于主输入器的第一被选择模式,模拟输入器沿第一方向的调整将通过全局时间线的进展速率从预定标准前进速率增加;
其中,对于主输入器的第一被选择模式,模拟输入器沿不同于第一方向的第二方向的调整将通过全局时间线的进展速率从预定标准前进速率降低;
其中,对于主输入器的第二被选择模式,模拟输入器沿第一方向的调整建立了沿前进方向的从固定速率变化的进展速率;且
其中,对于主输入器的第二被选择模式,模拟输入器沿第二方向的调整建立了沿倒退方向的从固定速率变化的进展速率。
6.如权利要求5所述的系统,其中,动画计算机系统包括实时输入,用于改动3D投影,同时在投影表面移动通过该组空间坐标时将3D投影保持在投影表面的该组坐标内。
7.如权利要求4所述的系统,还包括:物体检测器,物体检测器观察接近所述多个装置作用器中的第一装置作用器的区域,并当物体检测器感测到物体时,将安全停止信号传输至第一装置作用器。
8.如权利要求7所述的系统,还包括主安全控制器;
其中,主安全控制器包括可编程逻辑电路;且
其中,安全停止信号经由可编程电路被传输至所述多个装置作用器的每一个。
9.如权利要求7所述的系统,其中,第一装置作用器是机器人臂,物体检测器附连至机器人臂的安装点,且其中,接近第一装置作用器的区域包括从物体检测器延伸一固定距离的区域。
10.如权利要求8所述的系统,其中,接近第一装置作用器的区域随时间以预定方式改变,所述预定方式与全局时间线中的位置和通过全局时间线的进展速率相关联地确定。
11.一种方法,包括:
使用联接至投影表面的第一装置作用器将投影表面移动通过一组空间坐标;
从投影装置使用来自动画计算机的信号将3D投影投射到投影表面上;和
使用动画计算机,将3D投影映射到投影表面上,以将3D投影运动与投影表面通过该组空间坐标的运动匹配。
12.如权利要求11所述的方法,还包括:
在主控制器处接收控制数据,所述控制数据用于包括第一装置作用器的多个装置作用器;
使用主控制器将多个控制信号与全局时间线同步,以建立多个同步信号,使得用于装置作用器中的每一个作用器的控制数据与全局时间线中的对应位置相关联;
在主控制器处接收主输入信号,主输入信号指示全局时间线中的位置和通过全局时间线的进展速率;和
响应于主输入信号,将与全局时间线中的位置相关联的所述多个同步信号从主控制器通信至所述多个装置作用器,其中,所述多个同步信号以由主输入信号指示的通过全局时间线的进展速率被发送至所述多个装置作用器。
13.如权利要求12所述的方法,还包括:
使用至少一个物体检测器检测接近所述多个装置作用器的区域;和
将安全停止信号从所述至少一个物体检测器传输,所述安全停止信号阻止所述多个装置作用器操作。
14.如权利要求12所述的方法,其中,通过全局时间线的进展速率包括通过全局时间线的倒退的进展速率。
15.如权利要求12所述的方法,还包括:
在所述多个同步信号的通信期间,在主控制器处接收来自独立的手动控制器的用于所述多个装置作用器中的第一装置作用器的改动控制输入;
将改动控制输入与所述多个同步信号同步,以在所述多个同步信号的通信期间建立更新的多个同步信号;和
取代所述同步信号而通信所述更新的多个同步信号。
16.如权利要求15所述的方法,还包括:将所述更新的多个同步信号存储在数据库中,其中,控制数据从所述数据库在主控制器处被接收。
17.如权利要求12所述的方法,还包括:
在主控制器处接收来自所述多个装置作用器的反馈数据,所述反馈数据描述与同步控制信号相关联的操作特征;和
响应于所述反馈数据而改动同步控制信号。
18.如权利要求11所述的方法,还包括:
实时调整来自动画计算机的信号,以基于在动画计算机处的用户输入在投影表面处建立实时计算机动画。
19.一种计算机程序产品,包括计算机可读介质,所述计算机可读介质存储用于被计算系统执行的指令,所述指令用于实施使用运动控制创作影片的方法,所述方法包括:
针对多个装置作用器、至少一个投影仪、和处于运动控制组件中的至少一个投影表面,使用包括计算装置的软件控制器对物理特征和方位建模;
使用软件控制器,针对处于运动控制组件中的所述多个装置作用器,为运动特征和从所述至少一个投影仪至所述至少一个投影表面的光学路径建模,以建立用于所述多个装置作用器的控制数据;
使用软件控制器分析所述多个装置作用器的方位、物理特征和运动的建模,以检测碰撞、光学路径的阻碍,和检测超过一组预定操作限制的装置作用器运动;和
将控制数据通信至主控制器,所述主控制器同步控制数据且将控制数据传输至所述多个装置作用器。
20.如权利要求19所述的计算机程序产品,其中,该方法还包括:
使用软件控制器分析所述多个装置作用器的方位、物理特征和运动的建模,以确定包括碰撞风险的接近装置作用器的一组方位;和
将该组方位传输至包括至少一个物体检测器的主安全控制器。
CN201280067229.6A 2011-11-16 2012-11-14 用于与机器人控制的物体映射的3d投影的系统和方法 Active CN104054023B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161560744P 2011-11-16 2011-11-16
US61/560,744 2011-11-16
PCT/US2012/065116 WO2013074698A1 (en) 2011-11-16 2012-11-14 System and method for 3d projection mapping with robotically controlled objects

Publications (2)

Publication Number Publication Date
CN104054023A true CN104054023A (zh) 2014-09-17
CN104054023B CN104054023B (zh) 2017-11-17

Family

ID=48280253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280067229.6A Active CN104054023B (zh) 2011-11-16 2012-11-14 用于与机器人控制的物体映射的3d投影的系统和方法

Country Status (5)

Country Link
US (1) US9472011B2 (zh)
EP (1) EP2780764B1 (zh)
JP (2) JP2015506121A (zh)
CN (1) CN104054023B (zh)
WO (1) WO2013074698A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107817003A (zh) * 2016-09-14 2018-03-20 西安航通测控技术有限责任公司 一种分布式大尺寸空间定位系统的外参数标定方法
CN110303472A (zh) * 2018-03-27 2019-10-08 迪尔公司 将移动式机械转换成高精度机器人
CN113939779A (zh) * 2019-06-28 2022-01-14 欧姆龙株式会社 用于操作自动化系统的方法和设备、自动化系统及计算机程序产品
CN114326364A (zh) * 2020-09-30 2022-04-12 罗克韦尔自动化技术公司 用于高可用性工业控制器中的安全连接的系统和方法
CN114508680A (zh) * 2021-12-22 2022-05-17 江苏艾克斯医疗设备有限公司 一种医疗影像投影设备

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9160898B2 (en) * 2011-01-25 2015-10-13 Autofuss System and method for improved video motion control
US9552056B1 (en) 2011-08-27 2017-01-24 Fellow Robots, Inc. Gesture enabled telepresence robot and system
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
JP2015506121A (ja) 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー ロボット制御のオブジェクトによる3dプロジェクション・マッピングのシステム及び方法
DE102012002494A1 (de) * 2012-02-10 2013-08-14 Phoenix Contact Gmbh & Co. Kg Alternative Synchronisationsverbindungen zwischen redundanten Steuerungseinrichtungen
US9191237B1 (en) * 2012-05-24 2015-11-17 Dan Barry, Inc. Wireless communication systems and methods
JP5774223B2 (ja) * 2012-06-29 2015-09-09 三菱電機株式会社 ロボット制御装置およびロボット制御方法
CN104416581A (zh) * 2013-08-27 2015-03-18 富泰华工业(深圳)有限公司 具有报警功能的机械手
WO2015086036A1 (de) * 2013-12-12 2015-06-18 Testo Ag Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung
US9604361B2 (en) 2014-02-05 2017-03-28 Abb Schweiz Ag System and method for defining motions of a plurality of robots cooperatively performing a show
WO2015146805A1 (ja) * 2014-03-25 2015-10-01 コニカミノルタ株式会社 投光装置、及び、投光方法
US9841749B2 (en) * 2014-04-01 2017-12-12 Bot & Dolly, Llc Runtime controller for robotic manufacturing system
EP2927771B1 (en) * 2014-04-03 2024-01-31 Dronisos Flying drone trajectory synchronization
US9555545B2 (en) * 2014-05-21 2017-01-31 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation
US10455212B1 (en) * 2014-08-25 2019-10-22 X Development Llc Projected pattern motion/vibration for depth sensing
US9280159B1 (en) 2014-09-17 2016-03-08 Google Inc. Shutdown method by using local control board
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US9796093B2 (en) 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
GB2532272A (en) * 2014-11-14 2016-05-18 Nat Oilwell Varco Norway As Drilling rig
EP3268780A4 (en) * 2015-03-09 2018-11-14 Ventana 3D LLC Three-dimensional image source for enhanced pepper's ghost illusion
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
JP6484213B2 (ja) * 2016-12-09 2019-03-13 ファナック株式会社 複数のロボットを含むロボットシステム、ロボット制御装置、及びロボット制御方法
WO2018173178A1 (ja) * 2017-03-23 2018-09-27 株式会社Fuji ロボットシステム
JP6514273B2 (ja) * 2017-06-19 2019-05-15 ファナック株式会社 速度を表示するロボットシステム
DE102017115833A1 (de) * 2017-07-13 2019-01-17 SW Automation GmbH Verfahren zum Betreiben einer Werkstück-Bearbeitungs-Anlage und Werkstück-Bearbeitungs-Anlage
JP6843251B2 (ja) 2017-09-07 2021-03-17 川崎重工業株式会社 ロボットシステム及びその運転方法
CN107948621B (zh) * 2017-11-02 2020-01-07 天衍互动(厦门)科技有限公司 一种光雕传媒系统及其方法
US10060857B1 (en) 2017-11-16 2018-08-28 General Electric Company Robotic feature mapping and motion control
US11504853B2 (en) 2017-11-16 2022-11-22 General Electric Company Robotic system architecture and control processes
UA135182U (uk) 2018-12-11 2019-06-25 Костянтин Іванович Томільченко Система для позиціонування фізичних та віртуальних об'єктів
WO2020122851A1 (en) * 2018-12-11 2020-06-18 Tomilchenko Kostyantyn Ivanovych System for co-positioning of physical and virtual objects
CN109822573B (zh) * 2019-02-25 2022-04-22 太仓中科信息技术研究院 基于摄像机器人的直播节目在线包装方法
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
EP3994711A4 (en) * 2019-07-01 2023-07-12 Travis McGuire ENHANCED EMERGENCY STOP SYSTEM FOR DRILL FLOOR SAFETY
US11504845B2 (en) * 2019-08-14 2022-11-22 Google Llc Reconfigurable robotic manufacturing cells
TWI725646B (zh) * 2019-12-03 2021-04-21 台達電子工業股份有限公司 三維測量裝置及所適用之機械手臂的校正方法
US11772276B2 (en) 2020-01-02 2023-10-03 Universal City Studios Llc Systems and methods for optical performance captured animated figure with real-time reactive projected media
US11207606B2 (en) 2020-03-02 2021-12-28 Universal City Studios Llc Systems and methods for reactive projection-mapped show robot
CN112207824B (zh) * 2020-09-22 2022-07-01 慧灵科技(深圳)有限公司 多个单轴模组的控制方法、系统、装置及存储介质
WO2022266432A1 (en) * 2021-06-18 2022-12-22 Universal City Studios Llc Systems and methods for animated figure media projection
JP2024006557A (ja) * 2022-07-04 2024-01-17 セイコーエプソン株式会社 表示システムおよび教示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0587138A2 (en) * 1992-09-08 1994-03-16 Kabushiki Kaisha Toshiba 3D Human interface apparatus using motion recognition based on dynamic image processing
CN101512453A (zh) * 2006-09-14 2009-08-19 Abb研究有限公司 避免工业机器人与物体之间碰撞的方法和设备
US20090310088A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and methods for projecting
WO2010102288A2 (en) * 2009-03-06 2010-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
CN201654531U (zh) * 2009-12-31 2010-11-24 深圳华强智能技术有限公司 基于工控机的机器人伺服控制系统

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737500A (en) 1992-03-11 1998-04-07 California Institute Of Technology Mobile dexterous siren degree of freedom robot arm with real-time control system
US5255096B1 (en) 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
US5403140A (en) 1993-10-13 1995-04-04 Storage Technology Corporation Dynamic sweeping mechanism for a line scan camera
WO1995025991A1 (fr) * 1994-03-23 1995-09-28 Kabushiki Kaisha Yaskawa Denki Controleur de machine
JP3900446B2 (ja) * 1998-06-19 2007-04-04 株式会社東京大学Tlo 画像表示方法及び装置
GB0126526D0 (en) * 2001-11-05 2002-01-02 Canon Europa Nv Three-dimensional computer modelling
AU2003277240A1 (en) 2002-10-15 2004-06-07 University Of Southern California Augmented virtual environments
KR20060015557A (ko) 2003-04-28 2006-02-17 스티븐 제임스 크램톤 외골격을 구비한 cmm 암
US7071462B2 (en) * 2003-06-16 2006-07-04 Raytek Corporation Calibration system and method to correct distortion of thermal images from in-line and rotary thermoforming machines
GB0410551D0 (en) * 2004-05-12 2004-06-16 Ller Christian M 3d autostereoscopic display
US7730406B2 (en) * 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
US7240879B1 (en) 2005-05-06 2007-07-10 United States of America as represented by the Administration of the National Aeronautics and Space Administration Method and associated apparatus for capturing, servicing and de-orbiting earth satellites using robotics
JP2006323127A (ja) * 2005-05-19 2006-11-30 Univ Waseda 画像投影システム、画像処理装置及び画像処理プログラム
US8963926B2 (en) * 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
ATE522330T1 (de) 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
EP1948018A1 (en) * 2005-10-14 2008-07-30 Applied Research Associates NZ Limited A method of monitoring a surface feature and apparatus therefor
US8356704B2 (en) * 2006-01-31 2013-01-22 Andrew Flessas Robotically controlled entertainment elements
US8777418B2 (en) * 2006-01-26 2014-07-15 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
US7880719B2 (en) 2006-03-23 2011-02-01 International Business Machines Corporation Recognition and capture of whiteboard markups in relation to a projected image
US9137504B2 (en) * 2006-06-16 2015-09-15 Hewlett-Packard Development Company, L.P. System and method for projecting multiple image streams
US8437409B2 (en) 2006-12-06 2013-05-07 Carnagie Mellon University System and method for capturing, editing, searching, and delivering multi-media content
US20080152082A1 (en) * 2006-08-16 2008-06-26 Michel Bouchard Method and apparatus for use in security screening providing incremental display of threat detection information and security system incorporating same
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
JP4660771B2 (ja) * 2006-09-27 2011-03-30 国立大学法人岐阜大学 三次元像表示装置
CA2670214A1 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
DE102007055204B4 (de) * 2007-11-19 2010-04-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
JP5207167B2 (ja) * 2007-12-12 2013-06-12 国立大学法人岐阜大学 投影システムの校正装置
US8203603B2 (en) 2008-01-23 2012-06-19 Georgia Tech Research Corporation Augmented reality industrial overline systems and methods
JP5024766B2 (ja) * 2008-03-11 2012-09-12 国立大学法人岐阜大学 三次元表示装置
EP2286368B1 (en) 2008-05-06 2013-09-04 Flashscan3d, Llc System and method for structured light illumination with frame subwindows
JP2009276561A (ja) * 2008-05-14 2009-11-26 Sanyo Electric Co Ltd 投写型映像表示装置及び映像表示システム
JP4495252B2 (ja) * 2008-07-09 2010-06-30 パナソニック株式会社 経路危険性評価装置、経路危険性評価方法及びプログラム
KR20110061548A (ko) * 2008-07-14 2011-06-09 뮤젼 아이피 리미티드 페퍼스 고스트(Pepper's Ghost)를 생성하는 방법 및 장치
US8029229B2 (en) * 2008-07-25 2011-10-04 Duane Aiken Compensator for robotic arm
EP2313737B1 (en) * 2008-08-06 2018-11-14 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
JP5399824B2 (ja) * 2008-09-05 2014-01-29 株式会社森精機製作所 加工状況監視方法及び加工状況監視装置
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
JP4666060B2 (ja) 2008-11-14 2011-04-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
US8525925B2 (en) 2008-12-29 2013-09-03 Red.Com, Inc. Modular digital camera
US9011197B2 (en) * 2009-03-04 2015-04-21 Disney Enterprises, Inc. Robotic marionettes on magnetically-supported and highly mobile puppeteer platforms
KR20110069958A (ko) * 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
JP2011205615A (ja) * 2010-03-01 2011-10-13 Ricoh Co Ltd 描画画像共有装置、描画画像共有方法、プログラムおよび記録媒体
JP5771981B2 (ja) * 2010-03-15 2015-09-02 株式会社リコー 描画画像共有装置、データ処理方法、プログラムおよび記録媒体
JP2011254411A (ja) * 2010-06-04 2011-12-15 Hokkaido Univ 映像投影システムおよび映像投影プログラム
EP2637594A4 (en) 2010-11-11 2015-05-06 Univ Johns Hopkins ROBOT SYSTEMS FOR HUMAN MACHINE COLLABORATION
JP2015506121A (ja) 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー ロボット制御のオブジェクトによる3dプロジェクション・マッピングのシステム及び方法
WO2014034188A1 (ja) * 2012-08-30 2014-03-06 楽天株式会社 衣服画像処理装置、衣服画像表示方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0587138A2 (en) * 1992-09-08 1994-03-16 Kabushiki Kaisha Toshiba 3D Human interface apparatus using motion recognition based on dynamic image processing
CN101512453A (zh) * 2006-09-14 2009-08-19 Abb研究有限公司 避免工业机器人与物体之间碰撞的方法和设备
US20090310088A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and methods for projecting
WO2010102288A2 (en) * 2009-03-06 2010-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
CN201654531U (zh) * 2009-12-31 2010-11-24 深圳华强智能技术有限公司 基于工控机的机器人伺服控制系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107817003A (zh) * 2016-09-14 2018-03-20 西安航通测控技术有限责任公司 一种分布式大尺寸空间定位系统的外参数标定方法
CN110303472A (zh) * 2018-03-27 2019-10-08 迪尔公司 将移动式机械转换成高精度机器人
CN110303472B (zh) * 2018-03-27 2024-05-10 迪尔公司 将移动式机械转换成高精度机器人
CN113939779A (zh) * 2019-06-28 2022-01-14 欧姆龙株式会社 用于操作自动化系统的方法和设备、自动化系统及计算机程序产品
CN114326364A (zh) * 2020-09-30 2022-04-12 罗克韦尔自动化技术公司 用于高可用性工业控制器中的安全连接的系统和方法
CN114326364B (zh) * 2020-09-30 2024-05-14 罗克韦尔自动化技术公司 用于高可用性工业控制器中的安全连接的系统和方法
CN114508680A (zh) * 2021-12-22 2022-05-17 江苏艾克斯医疗设备有限公司 一种医疗影像投影设备

Also Published As

Publication number Publication date
CN104054023B (zh) 2017-11-17
WO2013074698A1 (en) 2013-05-23
EP2780764A4 (en) 2015-07-29
JP2015506121A (ja) 2015-02-26
EP2780764A1 (en) 2014-09-24
JP6131403B2 (ja) 2017-05-24
JP2017079467A (ja) 2017-04-27
EP2780764B1 (en) 2022-08-03
US20130120547A1 (en) 2013-05-16
US9472011B2 (en) 2016-10-18

Similar Documents

Publication Publication Date Title
CN104054023A (zh) 用于与机器人控制的物体映射的3d投影的系统和方法
US11045956B2 (en) Programming of a robotic arm using a motion capture system
US10447899B2 (en) System and method for 3D projection mapping with robotically controlled objects
US9160898B2 (en) System and method for improved video motion control
CN110650354B (zh) 虚拟动漫角色直播方法、系统、设备及存储介质
US9623559B2 (en) Systems and methods for instructing robotic operation
US9993924B2 (en) Closed-loop control system for robotic operation
US8339402B2 (en) System and method of producing an animated performance utilizing multiple cameras
CN111447340A (zh) 混合现实虚拟预演拍摄系统
EP2629267A2 (en) Real-time compositing of live recording-based and computer graphics-based media streams
CN105264436A (zh) 用于控制与图像捕捉有关的设备的系统和方法
JP2019534503A (ja) ステージ制作管理のノード及び方法
KR101680367B1 (ko) 시뮬레이터 카메라와 가상카메라 동기화에 의한 cg적용 영상제작시스템
CN109769082B (zh) 一种基于vr跟踪的虚拟演播室构建系统及录制方法
US11064096B2 (en) Filtering and smoothing sources in camera tracking
CN212231547U (zh) 混合现实虚拟预演拍摄系统
Frankton Motion capture for live performance: case study of CGI Visualization

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20180202

Address after: California, USA

Patentee after: Google Inc.

Address before: California, USA

Patentee before: Autodesk

Effective date of registration: 20180202

Address after: California, USA

Patentee after: X Development Co.,Ltd.

Address before: California, USA

Patentee before: Google Inc.

TR01 Transfer of patent right