CN110977931B - 使用了增强现实和混合现实的机器人控制装置及显示装置 - Google Patents

使用了增强现实和混合现实的机器人控制装置及显示装置 Download PDF

Info

Publication number
CN110977931B
CN110977931B CN201910925277.8A CN201910925277A CN110977931B CN 110977931 B CN110977931 B CN 110977931B CN 201910925277 A CN201910925277 A CN 201910925277A CN 110977931 B CN110977931 B CN 110977931B
Authority
CN
China
Prior art keywords
robot
display
orientation
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910925277.8A
Other languages
English (en)
Other versions
CN110977931A (zh
Inventor
吉田延宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN110977931A publication Critical patent/CN110977931A/zh
Application granted granted Critical
Publication of CN110977931B publication Critical patent/CN110977931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • B25J15/103Gripping heads and other end effectors having finger members with three or more finger members for gripping the object in three contact points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Abstract

本发明提供机器人控制装置及显示装置,机器人控制装置有效地利用增强现实和混合现实来辅助使用者的作业。机器人控制装置具备:显示装置,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;位置姿势取得部,其取得该环境中包含的机器人与显示装置的相对的位置及姿势;显示控制部,其使显示装置显示机器人、机器人的可动部、或由可动部支撑的物体等的虚拟模型;操作控制部,其操作显示于显示装置的虚拟模型;以及位置姿势规定部,其基于所操作的虚拟模型的位置及姿势的至少一方和机器人与显示装置的相对的位置及姿势,规定机器人的位置及姿势的至少一方。

Description

使用了增强现实和混合现实的机器人控制装置及显示装置
技术领域
本发明涉及使用了增强现实和混合现实的机器人控制装置及显示装置。
背景技术
在以往的机器人系统中,存在利用与虚拟现实(Virtual Reality:VR)相关的技术进行机器人的状态、作业人员的操作的导航的情况。但是,在虚拟现实中,需要事先准备机器人、其周边物的模型数据等,构筑正确的模型耗费时间和精力。另外,若机器人等的虚拟模型与现实的背离较大,则难以进行正确的导航等。
因此,近年来的机器人系统中,存在使用与增强现实(Augmented Reality:AR)相关的单元(AR对应显示器等)、技术来进行机器人的状态显示、作业人员的操作辅助(导航)的情况(例如,参照日本特开2016-107379号公报、日本特开2017-138609号公报、日本特开2012-171024号公报、日本特开2017-104944号公报、日本特开2004-209641号公报、以及日本特表2017-523054号公报)。
利用增强现实进行机器人的示教等作业的情况下,作业人员能够一边观看重叠显示于真实的机器人的图像或信息一边进行作业,但在进行示教等时,与以往同样地,需要使现实的机器人运动。因此,现有的利用了增强现实的作业不能被认为十分好用,期望更有效地利用增强现实和混合现实(Mixed Reality:MR)的优点来辅助使用者的作业的技术。
发明内容
本公开的一方案为机器人控制装置,其具备:显示装置,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;位置姿势取得部,其取得上述环境中包含的机器人与上述显示装置的相对的位置及姿势;显示控制部,其使上述显示装置显示上述机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个的虚拟模型;操作控制部,其操作显示于上述显示装置的上述虚拟模型;以及位置姿势规定部,其基于利用上述操作控制部而操作的上述虚拟模型的位置及姿势的至少一方和上述位置姿势取得部取得的上述相对的位置及姿势,规定上述机器人的位置及姿势的至少一方。
本公开的另一方案为机器人控制装置,其具备:显示装置,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;显示控制部,其使上述显示装置显示上述现实的环境中包含的机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个物体的虚拟模型;操作控制部,其操作显示于上述显示装置的上述虚拟模型;以及位置姿势取得部,其基于上述现实的环境中包含的上述物体与显示于上述显示装置的上述虚拟模型一致或者显示于上述显示装置的上述现实图像所表现的上述物体与上述虚拟模型一致时的上述现实的环境中包含的上述物体的位置及姿势的至少一方、或者显示于上述显示装置的上述虚拟模型的位置及姿势的至少一方,取得上述机器人与上述显示装置的相对的位置及姿势的至少一方。
本公开的又一方案为显示装置,其具备:显示部,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;位置姿势取得部,其取得上述环境中包含的机器人与上述显示部的相对的位置及姿势;显示控制部,其使上述显示部显示上述机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个的虚拟模型;操作控制部,其操作显示于上述显示部的上述虚拟模型;以及位置姿势规定部,其基于利用上述操作控制部而操作的上述虚拟模型的位置及姿势的至少一方和上述位置姿势取得部取得的上述相对的位置及姿势,规定上述机器人的位置及姿势的至少一方。
本公开的又一方案为显示装置,其具备:显示部,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;显示控制部,其使上述显示部显示上述现实的环境中包含的机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个物体的虚拟模型;操作控制部,其操作显示于上述显示部的上述虚拟模型;以及位置姿势取得部,其基于上述现实的环境中包含的上述物体与显示于上述显示部的上述虚拟模型一致或者显示于上述显示部的上述现实图像所表现的上述物体与上述虚拟模型一致时的上述现实的环境中包含的上述物体的位置及姿势的至少一方、或者显示于上述显示部的上述虚拟模型的位置及姿势的至少一方,取得上述机器人与上述显示部的相对的位置及姿势的至少一方。
附图说明
本发明的目的、特征以及优点根据与附图关联的以下的实施方式的说明将更明确。附图中:
图1是优选的实施方式的机器人控制装置的功能块图;
图2是表示使用者进行机器人的示教的状态的图;
图3是表示显示装置的一例的头戴式显示器的图;
图4是表示显示装置的一例的便携终端的图;
图5是表示使用者将显示装置朝向机器人时的显示装置的画面显示例的图;
图6是表示显示于菜单的工具的图像的一例的图;
图7是表示用简单的模型显示实际的工件的例的图;
图8是表示在机器人的模型显示有用于使各轴旋转的杆的例的图;
图9是表示在工具模型的附近显示有工具坐标系和操作按钮的例的图;
图10是表示在工具模型的附近显示有用于使模型平移的正交点动的例的图;
图11是表示在工具模型的附近显示有用于使模型旋转移动的正交点动的例的图;
图12是表示基于虚拟模型的位置设定机器人的示教点时的显示装置的画面显示例的图;
图13是表示计量机器人与显示装置的相对位置关系的例的图。
具体实施方式
图1是表示优选的实施方式的机器人控制装置10的一结构例的功能块图,图2是作为机器人控制装置10的应用例,表示使用者(作业人员)12进行机器人14的示教的情况的图。机器人控制装置10具备:显示装置18,其能够将预先由计算机11生成的信息(3D模型等)与包含机器人14的现实的环境(工厂、作业现场等)重合显示、或者能够将该信息与对环境进行拍摄所得到的图像(现实图像)重合显示;位置姿势取得部20,其取得环境中包含的机器人14与显示装置18的相对的位置及姿势(相对位置关系);显示控制部24,其在显示装置18显示使机器人14的可动部(臂、安装于该臂的工具等)22等的模型(虚拟模型);操作控制部26,其操作在显示装置18显示的虚拟模型;以及位置姿势规定部28,其基于由操作控制部26进行了操作的虚拟模型的位置及姿势的至少一方和位置姿势取得部20取得的上述相对位置关系,规定机器人14的位置及姿势的至少一方(例如,示教点)。另外,机器人控制装置10也可以还具有基于位置姿势规定部28规定的机器人14的位置及姿势的至少一方生成机器人14的动作程序的程序生成部30。此外,这里的可动部是指通过机器人的各轴的动作移动的物体,例如,包括机器人臂或安装于臂前端的手、工具等。另外,虚拟模型能够设为机器人14等现实的环境中包含的机器人、机器人的可动部、被机器人的可动部支撑的物体以及机器人的可动部的作业对象物的至少一个物体的虚拟的模型。此外,作业对象物也可以不只是成为机器人的加工等的作业的对象的物体,还包括机器人的校正作业中供机器人的可动部接触的在校正作业中使用的物体。
此外,在图1的例中,位置姿势取得部20、显示控制部24、操作控制部26、位置姿势规定部28以及程序生成部30可以通过与机器人14有线或无线连接的设于箱体(未图示)内的CPU、存储器、传感器或能与显示装置18无线通信的通信机、或者它们的组合实现,也可以将它们的至少一部分设于显示装置18。即,显示装置18也可以具有位置姿势取得部20、显示控制部24、操作控制部26、位置姿势规定部28以及程序生成部30。另外,显示装置18及该箱体分别还能够具备控制显示装置18及机器人14的全面动作的控制部(CPU、存储器等)。
图3表示作为显示装置18的一具体例的头戴式显示器(头部佩戴型显示装置)。头戴式显示器18具有拍摄现实环境的照相机32、实时显示照相机32取得(拍摄)的图像、影像的显示器34。显示器34是显示部的一例。使用者12通过佩戴头戴式显示器18并将照相机32朝向现实的机器人14,从而能够拍摄包含机器人14的环境,实时取得(捕获)该环境的影像,且经由显示器34,能够视觉确认进行了增强现实化的图像。或者,头戴式显示器18也可以具备透过型显示器,使用者12能够经由该透过型显示器视觉确认现实的环境。此外,显示于显示器34的虚拟模型能够根据后述的手势操作等使用者12的动作在显示器内进行操作(平移、旋转、放大/缩小等)。
图4表示作为显示装置18的另一具体例的便携终端(平板电脑)。便携终端18具有拍摄现实环境的照相机36和实时显示照相机36取得(拍摄)的图像、影像的显示器38。显示器38是显示部的另一例。使用者12保持便携终端18并将照相机36朝向现实的机器人14,从而能够拍摄包含机器人14的环境,实时取得(捕获)该环境的影像,能够经由显示器38视觉确认进行了增强现实化的图像。此外,通过使用者使手指、手写笔41等相对于显示器38接触、滑动,能够在显示器38内操作(移动等)显示于显示器34的虚拟模型。
接下来,对使用了机器人控制装置10的操作、处理的流程的具体例进行说明。在此,如图2所示,使用者12作为显示装置18佩戴图3所示那样的头部佩戴型(头戴式)显示器,对设置于环境(在此为作业现场)的地板40的机器人14利用把持式工具(在此为手22)把持配置于地板40上的预定位置的真实的物品(工件)42的操作进行示教。此外,在图2中示出了三个手22、22a以及22b,但是,如后所述,真实的手只是安装于机器人14的前端的手22,另外两个手22a及22b是非真实的虚拟图像(模型)。另外,机器人14的手22以外的机器人主体部分、工件42、以及环境内的其它周边物(未图示)也是真实的。
首先,使用者12若将显示装置18朝向机器人14的方向,则如图5所示地,在显示装置18的显示器34显示表示机器人14能够使用的手等工具或机器人14的前端(机器人前端R)等模型的一览(菜单)的图像(窗口等)50。然后,使用者12通过手势操作从显示的模型中选择(例如拖放)适当的模型,从而在预先定义于现实环境的预定位置的基准坐标系86的特定的位置显示所选择的模型。在此,使用者12从菜单将手B向真实的手22的左方拖放,从而显示手22的虚拟模型22a。在此显示的虚拟模型22a的大小能够根据该虚拟模型被释放的位置而适当自动地变更。
菜单50可以以文本形式显示可选择的工具,或者,也可以在此基础上显示为图像。另外,工具既可以作为单品显示,也能以显示工具把持有物品的状态显示。例如,也可以是,在菜单50中,将手B单品显示为“手B”,将手B把持有工件42的状态显示为“手B1”。例如,在选择了“手B1”的情况下,手22的虚拟模型以把持有工件42的状态显示。
图6是表示显示于菜单50的工具的图像的一例的图。如图6所示,图像601~图像604分别表示“手A”、“手B”、“手B1”以及“手C”的图像。“手A”例如为通过吸附把持工件的工具。另外,“手B”例如为具有两个爪,通过将工件夹在该两个爪之间而把持工件的工具。“手B1”如上所述地表示手B保持有工件的状态。而且,“手C”例如是具有三个爪,且通过将工件夹在该三个爪之间而保持工件的工具。
另外,模型的一览也可以作为3D(三维)模型而显示,作为3D模型,可以显示机器人的一部分、安装于机器人的工具(手、焊枪、密封枪等)、工具的操作的对象物(用手把持、搬送的工件、被焊接物等)等。
进一步地,在模型一览可以显示使用者预先或现场定义的长方体等虚拟的物体。例如,如图7所示,实际的工件52为圆柱形状,在利用吸附式的手54吸附工件52的上表面而搬送的情况下,使用者12预先或现场将工件52设为可内含工件52的长方体的3D的工件模型56而设定、存储于机器人控制装置10,能够使工件模型56显示于显示装置18的显示器34。该情况下,工件模型56不限于长方体,优选设定成至少工件模型56的上表面及下表面分别与实际的工件52的上表面及下表面成为齐平面。在实际的工件的形状复杂的情况下、无法准备实际的工件(无法配置于环境内)的情况下,通过这样利用工件的模型,后述的示教等作业更简单。
另外,如图7所示,在进行对于将工件52相对于箱58取出放入的用途的示教的情况下,若实际上将箱58配置于现实环境内,则有时使用者不能视觉确认其内部的工件,该情况下,通过进行工件的建模,可以用虚线显示工件的轮廓等进行隐藏在箱中的显示。其结果,使用者能够使用机器人控制装置10,直观且更容易地对机器人进行示教。通常,在示教时,使用者使机器人控制装置执行现实的机器人的动作程序,确认示教点间的机器人的搬送路径是否与现实的物体干涉。该确认中,使用者使机器人控制装置以从低的速度开始,将速度阶段性地提高到目标示教速度的方式将程序执行多次。另一方面,在本实施方式中,通过在进行了上述的工件的建模的基础上示教,机器人控制装置10执行机器人程序时的动作的状况能够以虚拟的机器人的图像与现实的世界重合的方式显示。因此,使用者不用在意机器人的搬送路径与箱等现实物体的干涉,而从最初以目标示教速度再生工件模型56的动作影像,容易确认在示教点间机器人是否干涉,因此机器人控制装置10能够缩短示教时间。
模型的一览(菜单)50显示于固定在使用者12的身体上的用户坐标系上。即,菜单50追随使用者12的动作而移动,相对于使用者12始终显示在固定的位置。另一方面,一旦重叠显示(释放)于现实环境的模型22a设定于基准坐标系86,则即使使用者12运动也不追随该运动,保持显示于现实环境的特定的位置的状态。
如图5所示地虚拟模型22a重叠显示于现实环境的图像后,使用者12以使虚拟模型22a处于所需的位置以及姿势的方式进行手势操作等动作。以下,说明手势操作的具体例。
(拖动操作)
(A1)使用者12注视手22或安装于机器人前端的工具的虚拟模型22a,进行用手指捏住虚拟模型22a的手势,从而显示控制部24成为使模型22a运动的状态。
(A2)使用者12使手保持捏住虚拟模型22a的状态运动,使模型22a移动到想要示教的位置及姿势。显示控制部24根据使用者12的手的运动使模型22a运动。此外,在移动距离比较长的情况下,使用者12也可以在现场(环境内)移动。
(A3)模型22a到达所需的位置后,使用者12进行张开手的手势,位置姿势规定部28将此时的模型22a的位置及姿势作为示教点等而设定(存储于存储器)。
(整个机器人的拖动操作)
显示控制部24使显示装置18(的显示器34)显示整个机器人14的虚拟模型。使用者12想要使该整个模型移动而示教的情况下,例如,进行如下的动作。
(B1)如图8所示例地,使用者12通过手势操作等使整个机器人14的虚拟(3D)模型59重叠显示于现实的机器人14,当注视模型59进行虚拟敲击(Air Tap)时,在机器人模型59的附近的空间内显示用于调整各轴的位置的杆60。此外,在此,机器人14为6轴多关节机器人,因此在模型59的各轴的附近显示六个杆60。
(B2)使用者12注视某轴(对象轴)进行虚拟敲击,通过用手指捏住杆60的手势,显示控制部24成为使模型59运动的状态。
(B3)使用者12保持捏住杆60的状态以描绘圆弧的方式使手运动,使模型59的对象轴的位置运动至想要示教的位置。显示控制部24根据使用者12的手的运动使模型59运动。此时,无需使实际的机器人14运动。
(B4)对象轴移动至所需的位置后,使用者12进行张开手的手势,位置姿势规定部28将对象轴固定(设定)于该位置。
(B5)根据需要,对其它轴进行(B3)-(B4)的处理,最后,当使用者12注视各轴以外的机器人的部分进行虚拟敲击时,此时的机器人模型59的位置及姿势(各轴的位置)作为示教点等而设定。
(按钮操作)
(C1)当使用者12注视手22a等工具进行虚拟敲击时,如图9所例示地,在工具附近的空间显示在该工具所定义的工具坐标系62、操作该工具的虚拟模型的多个操作按钮64以及应用的点动的模式。例如,在该例中,示出了表示应用的点动的模式为正交点动的“正交”。此外,显示的点动的模式显示除了正交点动外,例如,也可以包括表示为各轴点动的“各轴”、或者表示为由特定的坐标系定义的正交点动的该特定的坐标系的注释(例如,在由工具坐标系定义的情况下,为“工具”等)。另外,也可以根据应用的点动的模式,变更显示的操作按钮64的注释。例如,也可以取代应用正交点动的情况下的“+X”、“-X”等,而显示表示成为操作对象的轴的“+J1”等。进一步地,显示的操作按钮64的数量也可以根据机器人14具有的轴的数量或附加轴的数量而变更。
(C2)当使用者12注视按钮64的任一个进行虚拟敲击时,根据在按钮64的附近显示的比例(图示例中,10%),模型22a进行预定距离移动。在想要使模型22a连续移动的情况下,使用者12在注视对象按钮的状态下,进行预定的动作(例如,握拳(所谓的石头)的手势)。在该移动中,模型22也以与在按钮64的附近所显示的比例(图示例中,10%)对应的速度移动。例如,在机器人14的最大移动速度(例如,250mm/s)设定为100%且显示为10%时,模型沿指定的方向以最大速度的10%(例如,25mm/s)的速度移动。这在后述的正交点动操作中也同样。该情况下,例如,在进行张开手的动作(所谓的布的手势)时,能够使模型22a的移动停止。此外,在想要变更比例(%)的情况下,使用者12注视%显示65进行虚拟敲击,由此能够使受理数值输入的按钮(未图示)等显示。
(C3)使手22a或工具移动至应当示教的位置后,使用者12注视模型22a进行虚拟敲击,由此模型22a的位置及姿势被设定(存储于存储器等),不显示工具坐标系62和按钮64。
(正交点动操作)
(D1)当使用者12注视手22a等工具进行虚拟敲击时,如图10或图11例示地,在工具附近的空间显示操作该工具的虚拟模型的正交点动66或68和以比例表示使模型移动的速度的信息70或72。
(D2)当使用者12注视正交点动66进行虚拟敲击时,能够捏住正交点动66的按钮74而进行操作,捏住按钮74,向所需的方向(图示例中,+X、-X、+Y、-Y、+Z、-Z的任一个)移动,由此能够使工具沿该方向以指定的速度(例如,最高速度的10%)移动。同样,当使用者12注视正交点动68进行虚拟敲击时,能够捏住正交点动68的X轴76、Y轴78以及Z轴80的任一个进行操作,通过使使用者12捏住的轴绕顺时针及逆时针的任一个旋转,能够使手22等虚拟模型沿所需的方向(图示例中,+X、-X、+Y、-Y、+Z、-Z的任一个)以指定的速度旋转移动。
(D3)使手22a或工具移动至应示教的位置后,使用者12注视模型22a进行虚拟敲击,由此模型22a的位置及姿势被确定(临时存储),不显示正交点动66或68、以及信息70或72。此外,在图10中通过捏住按钮74、在图11通过捏住X轴76、Y轴78以及Z轴80的任一个来操作工具,但图10或图11示出的箭头也可以作为操作用的按钮而显示。该情况下,也可以执行与图9所示的按钮操作同样的操作。
此外,使用者12的视线方向能够利用公知的技术求出,例如,可以使用设于头戴式显示器18的陀螺传感器等传感器67(参照图3)、设于平板电脑18的陀螺传感器等传感器69(参照图4),通过检测显示装置18的姿势(即,使用者12的头部、照相机36朝向哪个方向)来求出,也可以使用视线检测传感器等直接检测使用者的视线。
另外,在上述的手势操作中,使用者12进行石头、布、虚拟敲击、用手指捏住、张开手等手势,当然也可以通过除此之外的手势操作模型。另外,除了手势操作以外,也可以利用使用了示教操作板或(操纵杆或触控面板等的)定点设备的操作。
通过上述的手势操作,工具虚拟模型22a移动至所需的(例如,作为示教点应设定的)位置后,通过使用者12的虚拟敲击等动作,如图12所示地模型选択菜单50转换到程序编辑画面82。程序编辑画面82也与菜单50同样地显示于固定于使用者12的身体的用户坐标系上,使用者12能够同时视觉确认编辑画面82和现实环境。
使用者12通过上述的手势操作、后述的手势操作等,对模型22a以成为想要示教的位置及姿势的方式进行操作,将此时的机器人14的位置及姿势利用程序编辑画面82来规定(更具体而言,进行机器人14的示教(示教点的生成、设定))。例如,在图2的例中,能够对手22从由虚拟图像22a示出的位置(位置[1])经由现实的手的位置(位置[2])移动至由虚拟图像22b示出的可把持工件42的位置(位置[3],参照图2)的动作进行示教。
基于程序编辑画面82进行的位置示教操作例如能够通过从显示出的动作菜单选择机器人的动作指令语句来进行。当使用者12选择指令语句时,以工具的虚拟模型(以下,称为工具模型)的位置及姿势和现实的工具的位置及姿势分别一致的机器人的位置及姿势被规定,规定的机器人的位置及姿势作为示教点而示教(存储于适当的存储器)。例如,在进行从图7例示的箱58中用吸附式的手54保持并取出工件52的作业的机器人系统中,能够按照以下的顺序进行示教。
(E1)使用者12预先或者现场定义工件52的3D工件模型56。在此,工件模型56定义为内含工件52的模型。
(E2)显示控制部24使定义的工件模型56重叠显示于现实的工件52。
(E3)如图7所示,显示控制部24将吸附手54的模型投影至现实的世界,使用者12对吸附工件52时的手54的位置及姿势进行示教。于是,通过显示控制部24,显示装置(增强现实对应显示器)18能够将此时的吸附手54的模型和使用者12定义的模型56配置成所需的位置关系的状态的模型与该示教点的位置编号(在此,位置[1]-[3])一起显示于模型一览。由此,机器人控制装置10能够不实际使现实的机器人14运动,而且视觉上容易理解地进行机器人14与周边物等不干涉的搬送路径的示教。另外,通过使用公知的图像辨认技术,在无需对应当吸附、保持现实的工件的哪个部位进行示教的系统中,能够相对于手的中心点,使用者定义模型,并添加到模型的一览。
此外,在根据模型的位置对具有7轴以上的冗长轴的机器人的位置及姿势进行示教的情况下,可以是使用者指定该冗长轴的位置,冗长轴的模型也可以与指定的位置一起显示。例如,在机器人的第六轴(前端)安装有冗长轴的情况下,显示控制部24使机器人的前端与冗长轴一起显示时,能够使相对于该前端的该冗长轴的模型的位置根据使用者指定的冗长轴的位置变化。
然后,上述的位置姿势规定部28使用操作控制部26对虚拟模型的操作和位置姿势取得部20取得的机器人14与显示装置18的相对位置关系(后述),判断机器人14(手22)实际是否可以到达移动后的虚拟模型的各位置,若可以达到,则将示教后的位置(机器人的位置及姿势)作为示教点而规定,并存储于存储器。程序生成部30能够生成包括该示教点的机器人的动作程序。生成的动作程序除了机器人的示教外,还能够用于机器人的动作确认、干涉检验等动作模拟。此外,在该例中决定各示教点,但也可以作为由多个示教点构成的轨迹(点列)进行示教。例如,若将在空间中拖动3D模型得到的轨迹设为示教点列,则能够将机器人的动作作为轨迹示教。
位置姿势规定部28例如如下进行是否可到达的判定。
如图9所示,显示于工具模型的工具坐标系62能够对每个工具模型设定几个,该坐标系以相对于在机器人的端点所定义的坐标系处于怎样的相对关系来定义。对每个工具模型定义工具坐标系,因此在模型的一览显示的菜单50中,工具模型与定义该工具坐标系的编号一起显示。这样,在将与工具坐标系62一起定义的工具模型投影至现实的世界时,能够以行列表示在显示装置的控制部任意定义的基准坐标系上,工具模型以怎样的位置及姿势存在。在此,机器人控制装置的控制部(未图示)任意定义的世界坐标系上的工具模型的位置及姿势(从世界坐标系观察到的工具坐标系的位置及姿势)以根据由位置姿势取得部20取得的显示装置与机器人的相对位置关系得到的、表示从世界坐标系观察到的基准坐标系的位置及姿势的变换矩阵A和表示从基准坐标系观察到的工具模型的位置及姿势的行列B的积表示。基于该世界坐标系上的工具模型的位置及姿势,求解逆运动学,从而位置姿势规定部28能够算出机器人的各轴位置。该算出的各轴位置若处于对每个机器人定义的各轴的动作制限、自干涉式的动作限制的范围内,则位置姿势规定部28能够判定为机器人可以到达。
在机器人控制装置的控制部和显示装置的控制部的功能汇总为一个的情况等,显示装置的基准坐标系与世界坐标系一致的情况下,位置姿势规定部28基于工具模型的位置及姿势求解逆运动学,从而求出机器人的各轴位置,由此判断是否可到达即可。
上述的实施方式中,机器人控制装置10使用模型的位置及姿势示教机器人的位置及姿势,但也可以仅示教机器人的位置或姿势。例如,仅包括位置的示教点(示教信息)用于无需指定机器人的姿势的情况。该情况下,示教点的姿势能够通过基于该示教点的前后的示教点的姿势的插值计算决定。另一方面,例如在应当将机器人保持的物品以特定的姿势配置于预定大小的区域内的任意的场所的情况下,可以对该特定的姿势的示教使用仅包括姿势的示教点(示教信息)。
另外,在上述实施方式中,对使用工具的模型进行示教的例进行了说明,但机器人控制装置10也能够使用整个机器人、机器人的一部分、焊枪或密封枪等可安装于机器人的工具、或该工具的作业对象物或加工对象物的模型进行示教。此外,如上述地,作业对象物不仅包括成为机器人的加工等作业的对象的物体,还包括在机器人的校正作业中机器人的可动部接触到的在校正作业中使用的物体。另外,本公开的机器人控制装置除了示教以外,还能够在使机器人不实际动作而进行机器人的动作确认、有无干涉的检验等(基于动作程序的模拟)时使用。例如,在上述实施方式中,对通过模型特定机器人的位置及姿势并用于程序的示教的例进行了说明,但机器人控制装置也可以使用特定的位置及姿势的信息使虚拟的机器人整体的图像与现实的环境重合,并显示于显示装置,此时,为了确认机器人与现实的物体是否干涉而使用机器人控制装置。
另外,特定的机器人的位置及姿势的信息也可以如本实施例这样用于示教以外的用途。
接下来,对取得(计量)机器人14与显示装置18的相对位置关系的位置姿势取得部20的具体的结构例进行说明。首先,公所周知,机器人14安装有AR标识等视觉上的标识(未图示)。可以列举,位置姿势取得部20对通过用搭载于显示装置18的照相机32或36(图3-4)拍摄该标识而得到的图像进行辨认(图像处理),由此根据图像上的标识的位置、朝向以及尺寸计算照相机与机器人的相对位置关系。
但是,在上述的公知例中,需要预先通过粘贴、印刷等将标识设于机器人,例如,在机器人设于比较容易变脏的环境的情况下,必须进行机器人(至少标识)的定期的清扫。而且,使用者需要能够在拍摄标识的位置操作显示装置,因此,使用者的可移动的范围受到制约。另一方面,也可以取代标识而利用机器人主体的图像,但该情况下,为了识别机器人,需要从多个方向拍摄该机器人,预先准备多个图像。
因此,如本公开这样使用可以将由计算机生成的信息与包括机器人的现实的环境重合而显示,或者与拍摄该环境所得到的现实图像重合而显示的显示装置的情况下,位置姿势取得部20能够根据显示于该显示装置的机器人或附属于该机器人的物体的3D模型和现实的机器人或附属于该机器人的物体重合时的条件(参数)特定该显示装置与该机器人的相对位置关系。
以下,说明特定显示装置与机器人的相对位置关系的结构的具体例(实施例1-3),首先,对以下说明使用的主要的用语进行说明。“机器人的控制点”是指控制机器人的动作时使用的代表点,工具前端点(TCP)是其优选例。另外,“世界坐标系”是以机器人的(设定于基座等的)基准位置为原点的在机器人所定义的坐标系,例如,为用图2的参照符号84表示的在环境内固定的坐标系。
“基准坐标系”是增强现实对应显示器等显示装置的控制部可任意定义的坐标系,例如,如用图2的参照符号86所示地,在此为以开始示教操作等时(启动显示装置时)的照相机(使用者)的位置为原点的在环境内固定的坐标系。更详细而言,例如,在显示装置内置有3D传感器的情况下,能够取得使用者所处空间的三维数据,显示装置的控制部能够决定在该空间内的哪个位置显示手等的3D模型,作为决定该位置时的基准,能够使用上述基准坐标系。
(实施例1)
图13是使用者经由显示装置18看到的图像,表示相对于真实的机器人14的手22,重叠显示手22的虚拟(3D)模型22a的状态。在此,根据使用者12的操作,由显示装置18的控制部等预先决定相对于基准坐标系86在哪个位置及姿势显示3D模型22a,另一方面,根据使用者12的操作、程序的执行,由控制机器人的控制部等预先决定相对于世界坐标系在哪个位置及姿势控制机器人的控制点。从而,通过使用者12使工具(手)的3D模型22a和现实的工具22在显示装置18的画面34上一致,位置姿势取得部20能够按照以下的顺序计量显示装置18相对于机器人14的相对位置关系。
显示装置18显示图13的手22a那样的机器人14的前端部分的模型、工具的模型等机器人14的一部分的模型,通过使用者12进行上述的手势操作等,操作控制部26使模型22a移动,现实的手22和模型22a看起来一致。此时,显示装置18的控制部从机器人14的控制部接收机器人14的各轴位置,且根据需要接收工具坐标系的信息,从而能够计算机器人14(世界坐标系84)的原点位置。通过该处理,显示装置18的控制部能够将3D模型22a的位置辨认成现实中机器人14的工具22存在的位置。此外,操作控制部26例如通过在由照相机32或照相机36得到的图像与对应于各种手势的模板之间执行模板匹配,或者通过将图像输入为了识别图像标识的手势而预先进行了学习的识别器(例如,基于神经网络的识别器),从而能够辨认使用者12执行的手势。
显示装置18的控制部能够将世界坐标系84与基准坐标系86的相对位置关系相关的信息(例如,从世界坐标系84到基准坐标系86的变换矩阵)和基准坐标系86与显示装置18的位置关系的信息(例如,基准坐标系86下的显示装置18的位置及姿势)发送至机器人14的控制部。位置姿势取得部20根据接收到的信息求出显示装置18位于世界坐标系84的哪个位置。
在此,“重合”或“一致”是指现实图像及虚拟图像的位置、姿势以及大小完全相同,或者两图像的位置、姿势以及大小的每个的差(使用者能够将两者实质上作为一个图像视觉确认的程度)处于预定的误差范围内,另外,这样的状态例如可以利用模板匹配自动判别。但是,使用者将两者实质上作为一个图像而辨认时,也能够通过手势操作、开关操作等向机器人或显示装置的控制部输入两图像一致(重合)。
实施例1中,记载了显示机器人的前端部分的模型、工具的模型等一部分,但该模型也可以与用手捏住的物体、或者成为安装于机器人的枪等的加工对象物的存在于机器人的动作范围内的作业对象物体的模型一起显示。该情况下,使用者只要使显示出的模型的机器人或安装于机器人的工具等的部分移动,以便作业对象物体的模型与安装于机器人或工具的现实的作业对象物体一致即可。
(实施例2)
在实施例1中,对于机器人的一部分,使虚拟图像与现实的环境或图像一致,在实施例2中,显示装置18显示机器人整体的3D模型,使用者使其模型以与现实的机器人一致(重合)的方式移动。该状态下,显示装置18的控制部能够将3D模型的位置(的原点等)作为现实中机器人14(的原点等)存在的位置而辨认。另外,位置姿势取得部20能够以与实施例1同样的步骤求出世界坐标系84中的显示装置18的位置。
这样,位置姿势取得部20能够基于世界坐标系84与基准坐标系86的相对位置关系和显示装置18显示出的现实图像与虚拟模型一致时的显示装置18中的虚拟图像(模型)的位置,取得显示装置18相对于机器人14的相对位置关系。此外,优选显示装置18具有测量显示装置18相对于基准坐标系86的位置及姿势的至少一方的3D传感器等的传感器。另外,在实施例1、2中,机器人控制装置以使虚拟的模型和现实的物体一致的方式操作虚拟的模型,但也可以以使虚拟的模型和现实的物体一致的方式操作现实的机器人。此外,位置姿势取得部20还能够基于现实的环境包含的物体或现实图像表现出的该物体和该物体的虚拟模型一致时的该物体的现实的位置及姿势,通过与上述同样的处理,取得显示装置18与机器人14间的相对位置关系。另外,位置姿势取得部20也可以根据需要仅取得显示装置18与机器人14的相对的位置及相对的姿势中的任意一方。
(实施例3)
在实施例1及2中,在一个位置,机器人控制装置10对于机器人整体或一部分使虚拟图像与现实的环境或图像一致,能够使用多个位置将误差平均化,提高精度。作为具体的方法,可以列举对机器人示教坐标系时使用的3点示教法(后述)、4点示教法。
在3点示教法中,首先,使用者在任意的第一位置使真实的机器人14的手22和虚拟模型22a一致,以与实施例1同样的步骤将机器人与显示装置的相对位置关系存储于显示装置的控制部。然后,在机器人控制装置10使现实的机器人14(的手22)从第一位置沿世界坐标系84的X轴方向进行任意的距离移动后的第二位置,同样地,使用者使手22和虚拟模型22a一致,将机器人与显示装置的相对位置关系存储于控制部。进一步地,在机器人控制装置10使现实的机器人14(的手22)从第二位置沿世界坐标系84的Y轴方向进行任意的距离移动后的第三位置,同样地,使用者使手22和虚拟模型22a一致,将机器人与显示装置的相对位置关系存储于控制部。通过将利用以上的处理得到的多个相对位置平均等处理,位置姿势取得部20能够求出世界坐标系84与基准坐标系86的更正确的相对位置关系。此外,在实施例3中,即使将显示装置的控制部置换成机器人的控制部,将世界坐标系置换成基准坐标系,也能够得到同样的结果。对于一直以来用于机器人的工具坐标系的设定的4点示教法,也同样能够适用。
根据实施例1-3,能够高精度地取得增强现实对应显示器等显示装置与现实的机器人的相对位置关系,进一步地,相比图像辨认的方法,能够大幅减少保养的工时、处理的时间。此外,在上述的各实施例中,关联世界坐标系与基准坐标系的位置关系,对机器人和显示装置分别具有控制部的例进行了说明,但也可以将具备两控制部的功能的实质上的一个控制部设于机器人及显示装置的任一个,或者,也可以作为个人计算机等独立的装置而设置。此外,上述的各实施例中的模型的操作能够使用手势、触控面板、手柄或操纵杆这样的游戏机的操作也能使用的定点设备、或示教操作板等来进行。
另外,使用者有时在使用显示装置进行上述的手势操作、示教等作业的期间,有意或无意地相对于现实的机器人移动,机器人与显示装置的相对位置关系发生变化。另一方面,在机器人搭载于可动式的台车等的情况下,即使使用者不动,有时机器人也相对于使用者移动。这样的情况下,需要重新计量显示装置与机器人的相对位置关系。
因此,优选在机器人及显示装置的至少一方设置追随地求出机器人与显示装置之间的相对的位置及姿势的追随装置,以便即使使用者(显示装置)与机器人的相对位置关系变化,根据该变化量,显示于现实环境中的模型也能够适当移动。例如,通过在显示装置及机器人的一方或双方设置使用了利用激光、红外线等光的传感器、超声波传感器、磁式传感器、惯性传感器、或陀螺传感器等的追随装置(例如,参照显示装置18的参照符号67(图3)或符号69(图4)),在两者的相对位置关系发生了变化的情况下,即使不进行该相对位置关系的重新计量,也能够连续取得正确的相对位置关系。
在机器人搭载于台车的情况下,若在该台车设有上述的追随装置,则在首次计量机器人与显示装置的相对位置关系后,即使机器人移动,也能够取得其位置,能够准确判断现实的机器人是否可以到达示教的位置。另外,在作为机器人的动作模拟显示机器人的3D模型的情况下,也能够正确地显示该3D模型的动作。此外,机器人也可以并非设于台车,而是设置于由伺服马达等驱动并且能够取得移动量的轨道、旋转圆盘等之上。该情况下,能够将检测该移动量的单元(编码器等)用作追随装置。
此外,在上述的实施方式中,对使用了头部佩戴型的显示装置的例进行了说明,当然在使用平板电脑终端的情况下也能够进行同样的操作、处理。
在上述的实施方式中,以6轴和7轴的机器人为例进行了说明,但应用本公开的机器人控制装置的机器人不限定于这些轴数的机器人,除此之外的轴数的机器人也可以使用本公开的机器人控制装置。
另外,在上述的实施方式中,通过利用增强现实和混合现实,使用者利用手势进行与现实的环境重叠显示的虚拟模型的操作(移动、旋转等),从而能够以使实际的机器人或物体运动的感觉对机器人进行示教,因此,能够更直观且迅速地进行示教等作业。另外,对于工件、周边设备等的机器人周边真实存在的物体,无需预先建模,因此不仅相比虚拟现实能够减少工时,而且能够提高示教、模拟的精度、可靠性。进一步地,使用者无需拿着示教操作板或机器人主体这样的现实的物体或者通过手动、点动操作使现实的机器人运动,因此该机器人控制装置能够减轻使用者的负担及疲劳,并且能够缩短作业时间,而且能够节约能量成本。
根据本公开,并非使真实的机器人,而是使重叠显示于现实的环境的机器人的虚拟模型基于使用者的动作运动,因此使用者能够以与使现实的机器人运动的情况大致相同的感觉直观地进行示教等作业。

Claims (10)

1.一种机器人控制装置,其特征在于,具备:
显示装置,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;
位置姿势取得部,其取得上述环境中包含的机器人与上述显示装置的相对的位置及姿势;
显示控制部,其使上述显示装置显示上述机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个的虚拟模型;
操作控制部,其操作显示于上述显示装置的上述虚拟模型;以及
位置姿势规定部,其在使用者从表示显示有用于上述显示装置所朝向的上述机器人的上述虚拟模型的模型的一览的图像中选择上述虚拟模型,并在上述现实的环境或拍摄上述现实的环境得到的现实图像的特定的位置显示上述虚拟模型时,基于根据上述使用者的操作利用上述操作控制部而操作的上述虚拟模型的位置及姿势的至少一方和上述位置姿势取得部取得的上述相对的位置及姿势,规定上述机器人的位置及姿势的至少一方。
2.根据权利要求1所述的机器人控制装置,其特征在于,
上述显示装置为具有拍摄上述现实的环境的照相机和实时显示上述照相机取得的现实图像的显示器的头部佩戴型显示装置或便携终端。
3.根据权利要求1所述的机器人控制装置,其特征在于,
上述显示装置为具备透过型显示器的头部佩戴型显示装置。
4.根据权利要求1~3中任一项所述的机器人控制装置,其特征在于,
上述位置姿势规定部基于利用上述操作控制部而操作的上述虚拟模型的位置及姿势的至少一方和上述位置姿势取得部取得的上述相对的位置及姿势,判定上述机器人是否能够实际到达以上述虚拟模型的位置及姿势的至少一方指定的上述机器人的位置及姿势的至少一方,若能够到达,则基于上述虚拟模型的位置及姿势的至少一方,规定上述机器人的位置及姿势的至少一方。
5.根据权利要求1~4中任一项所述的机器人控制装置,其特征在于,
还具有程序生成部,该程序生成部基于上述位置姿势规定部规定的上述机器人的位置及姿势的至少一方,生成上述机器人的动作程序。
6.根据权利要求1~5中任一项所述的机器人控制装置,其特征在于,
在上述机器人和上述显示装置的至少一方具备追随装置,该追随装置追随并求出上述相对的位置及姿势。
7.一种机器人控制装置,其特征在于,具备:
显示装置,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;
显示控制部,其使上述显示装置显示上述现实的环境中包含的机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个物体的虚拟模型;
操作控制部,其操作显示于上述显示装置的上述虚拟模型;以及
位置姿势取得部,其基于上述现实的环境中包含的上述物体与显示于上述显示装置的上述虚拟模型一致或者显示于上述显示装置的上述现实图像所表现的上述物体与上述虚拟模型一致时的、上述现实的环境中包含的上述物体的位置及姿势的至少一方或者显示于上述显示装置的上述虚拟模型的位置及姿势的至少一方,取得上述机器人与上述显示装置的相对的位置及姿势的至少一方。
8.根据权利要求7所述的机器人控制装置,其特征在于,
上述位置姿势取得部基于以下条件取得上述机器人与上述显示装置的相对的位置及姿势的至少一方:
通过上述机器人的控制部设定的坐标系与通过上述显示装置的控制部设定的坐标系的相对位置关系;以及
上述现实的环境中包含的上述物体与显示于上述显示装置的上述虚拟模型一致或者显示于上述显示装置的上述现实图像所表现的上述物体与上述虚拟模型一致时的上述现实的环境中包含的上述物体的位置及姿势的至少一方、或者显示于上述显示装置的上述虚拟模型的位置及姿势的至少一方。
9.一种显示装置,其特征在于,具备:
显示部,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;
位置姿势取得部,其取得上述环境中包含的机器人与上述显示部的相对的位置及姿势;
显示控制部,其使上述显示部显示上述机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个的虚拟模型;
操作控制部,其操作显示于上述显示部的上述虚拟模型;以及
位置姿势规定部,其在使用者从表示显示有用于上述显示装置所朝向的上述机器人的上述虚拟模型的模型的一览的图像中选择上述虚拟模型,并在上述现实的环境或拍摄上述现实的环境得到的现实图像的特定的位置显示上述虚拟模型时,基于根据上述使用者的操作利用上述操作控制部而操作的上述虚拟模型的位置及姿势的至少一方和上述位置姿势取得部取得的上述相对的位置及姿势,规定上述机器人的位置及姿势的至少一方。
10.一种显示装置,其特征在于,具备:
显示部,其能够使由计算机生成的信息与现实的环境重合而显示,或者能够使该信息与拍摄该环境得到的现实图像重合而显示;
显示控制部,其使上述显示部显示上述现实的环境中包含的机器人、上述机器人的可动部、由该可动部支撑的物体以及该可动部的作业对象物中的至少一个物体的虚拟模型;
操作控制部,其操作显示于上述显示部的上述虚拟模型;以及
位置姿势取得部,其基于上述现实的环境中包含的上述物体与显示于上述显示部的上述虚拟模型一致或者显示于上述显示部的上述现实图像所表现的上述物体与上述虚拟模型一致时的、上述现实的环境中包含的上述物体的位置及姿势的至少一方或者显示于上述显示部的上述虚拟模型的位置及姿势的至少一方,取得上述机器人与上述显示部的相对的位置及姿势的至少一方。
CN201910925277.8A 2018-10-02 2019-09-27 使用了增强现实和混合现实的机器人控制装置及显示装置 Active CN110977931B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-187680 2018-10-02
JP2018187680A JP6787966B2 (ja) 2018-10-02 2018-10-02 拡張現実と複合現実を用いたロボット制御装置及び表示装置

Publications (2)

Publication Number Publication Date
CN110977931A CN110977931A (zh) 2020-04-10
CN110977931B true CN110977931B (zh) 2023-11-28

Family

ID=69781118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910925277.8A Active CN110977931B (zh) 2018-10-02 2019-09-27 使用了增强现实和混合现实的机器人控制装置及显示装置

Country Status (4)

Country Link
US (1) US11724388B2 (zh)
JP (1) JP6787966B2 (zh)
CN (1) CN110977931B (zh)
DE (2) DE102019006800B4 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210007774A (ko) * 2019-07-12 2021-01-20 엘지전자 주식회사 로봇 시뮬레이터의 표시 방법
JP7409848B2 (ja) * 2019-12-04 2024-01-09 ファナック株式会社 表示装置及び表示プログラム
KR20220110546A (ko) * 2019-12-09 2022-08-08 어그멘투스 피티이. 엘티디. 로봇을 프로그래밍하기 위한 방법 및 시스템
US20210316458A1 (en) * 2020-04-08 2021-10-14 Smart Building Tech Co., Ltd. Cloud based computer-implemented visually programming method and system for robotic motions in construction
DE102020206403A1 (de) 2020-05-22 2021-11-25 Kuka Deutschland Gmbh Konfigurieren, Durchführen und/oder Analysieren einer Applikation eines mobilen und/oder kollaborativen Roboters
CN113760088A (zh) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 增强现实显示装置以及记录介质
CN111805540A (zh) * 2020-08-20 2020-10-23 北京迁移科技有限公司 工件抓取位姿的确定方法、装置、设备及存储介质
DE102020006304B3 (de) 2020-10-14 2022-01-13 Kuka Systems Gmbh Verfahren zum Einblenden von virtuellen Roboterdatenobjekten und Computerprogrammprodukt
TW202218836A (zh) * 2020-11-02 2022-05-16 日商發那科股份有限公司 機器人控制裝置及機器人系統
JP2022088884A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 コンピュータープログラム、及び、ロボットの教示方法
CN112917457A (zh) * 2021-01-27 2021-06-08 南京航空航天大学 一种基于增强现实技术的工业机器人快速精准示教系统及方法
CN112936261B (zh) * 2021-01-27 2022-07-08 南京航空航天大学 一种基于增强现实技术的工业机器人现场仿真系统与方法
CN112947238B (zh) * 2021-03-15 2021-11-09 哈尔滨工业大学 一种基于vr技术的工业机器人实时控制系统
JP2022142452A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 制御装置、制御方法、およびプログラム
US20220309753A1 (en) * 2021-03-25 2022-09-29 B/E Aerospace, Inc. Virtual reality to assign operation sequencing on an assembly line
CN113814970B (zh) * 2021-08-12 2023-05-23 杭州迁移科技有限公司 工件抓取点优化计算方法、装置、设备及存储介质
CN114518731B (zh) * 2022-01-27 2023-03-31 哈尔滨工程大学 可远程应用的大场景工业现场无标记增强现实辅助制造和运维系统
DE102022206854A1 (de) 2022-07-05 2024-01-11 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachung einer Maschine mit prädizierter Sicht
JP7364285B1 (ja) 2022-11-11 2023-10-18 高丸工業株式会社 ロボット操作システムの動作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105666505A (zh) * 2014-12-08 2016-06-15 发那科株式会社 具备扩展现实对应显示器的机器人系统
CN106863295A (zh) * 2015-12-10 2017-06-20 发那科株式会社 机器人系统
US9919427B1 (en) * 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10063089C1 (de) 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
SE531104C2 (sv) 2002-12-30 2008-12-16 Abb Research Ltd Metod och system för programmering av en industrirobot
JP5246672B2 (ja) 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 ロボットシステム
JP5742862B2 (ja) 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
US9283678B2 (en) 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US9393699B1 (en) * 2014-12-05 2016-07-19 Google Inc. Methods and systems for wireless control of a robotic device
US9643314B2 (en) 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US9916506B1 (en) * 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
EP3424033A4 (en) * 2016-03-04 2019-12-18 Covidien LP VIRTUAL AND / OR AUGMENTED REALITY FOR PERFORMING PHYSICAL INTERACTION TRAINING WITH A SURGICAL ROBOT
US10956739B2 (en) * 2016-06-27 2021-03-23 Autodesk, Inc. Augmented reality robotic system visualization
JP2018015857A (ja) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 制御装置、及びロボット
US10414046B1 (en) * 2016-11-07 2019-09-17 X Development Llc Modular robot design
DE102016224774B3 (de) 2016-12-13 2018-01-25 Audi Ag Verfahren zur Programmierung eines Messroboters und Programmiersystem
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6369583B2 (ja) 2017-03-09 2018-08-08 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10684480B2 (en) 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
US11030808B2 (en) * 2017-10-20 2021-06-08 Ptc Inc. Generating time-delayed augmented reality content
WO2019046559A1 (en) * 2017-08-30 2019-03-07 Linkedwyz UTILIZING INCREASED REALITY TO CONTROL INTELLIGENT DEVICES
US11386611B2 (en) * 2017-08-30 2022-07-12 Skill Real Ltd Assisted augmented reality
JP7066357B2 (ja) * 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
JP7259284B2 (ja) 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
WO2019120481A1 (en) * 2017-12-19 2019-06-27 Abb Schweiz Ag System and method for determining a transformation representation
DE102018109463C5 (de) * 2018-04-19 2023-10-05 Voraus Robotik Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105666505A (zh) * 2014-12-08 2016-06-15 发那科株式会社 具备扩展现实对应显示器的机器人系统
US9919427B1 (en) * 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
CN106863295A (zh) * 2015-12-10 2017-06-20 发那科株式会社 机器人系统

Also Published As

Publication number Publication date
DE102019006800A1 (de) 2020-04-02
US20200101599A1 (en) 2020-04-02
US11724388B2 (en) 2023-08-15
JP2020055075A (ja) 2020-04-09
CN110977931A (zh) 2020-04-10
DE102019009313B4 (de) 2024-02-15
JP6787966B2 (ja) 2020-11-18
DE102019006800B4 (de) 2022-07-28

Similar Documents

Publication Publication Date Title
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
CN110394780B (zh) 机器人的仿真装置
JP4680516B2 (ja) ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置
US20210252713A1 (en) External input device, robot system, control method of robot system, control program, and recording medium
US9311608B2 (en) Teaching system and teaching method
US9919421B2 (en) Method and apparatus for robot path teaching
Zaeh et al. Interactive laser-projection for programming industrial robots
EP1537959B1 (en) A method and a system for programming an industrial robot
US20190202058A1 (en) Method of programming an industrial robot
CN111093903B (zh) 机器人系统及其运行方法
US20050251290A1 (en) Method and a system for programming an industrial robot
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
US20150321351A1 (en) Intuitive Motion Coordinate System for Controlling an Industrial Robot
US20180178388A1 (en) Control apparatus, robot and robot system
US20160346921A1 (en) Portable apparatus for controlling robot and method thereof
JP2014512530A (ja) 座標位置決め装置
US10427298B2 (en) Robot system displaying information for teaching robot
US20190160671A1 (en) Robot control device for setting jog coordinate system
JP2020015128A (ja) センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
US20180178389A1 (en) Control apparatus, robot and robot system
JP5108032B2 (ja) 多関節構造体教示装置
CN108981567B (zh) 位置测量装置的操作方法
JP6457208B2 (ja) ロボットへの動作指示システム及び動作指示方法
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP2015100874A (ja) ロボットシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant