CN105479467B - 机器人操作装置、机器人系统以及机器人操作程序 - Google Patents
机器人操作装置、机器人系统以及机器人操作程序 Download PDFInfo
- Publication number
- CN105479467B CN105479467B CN201510640859.3A CN201510640859A CN105479467B CN 105479467 B CN105479467 B CN 105479467B CN 201510640859 A CN201510640859 A CN 201510640859A CN 105479467 B CN105479467 B CN 105479467B
- Authority
- CN
- China
- Prior art keywords
- robot
- drag operation
- drive shaft
- movement
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36159—Detachable or portable programming unit, display, pc, pda
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36162—Pendant control box
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36168—Touchscreen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
在机器人操作装置中,动作指令生成部从预先设定的驱动轴的组合中选择作为操作对象的一个组合,其中,所述预先设定的驱动轴的组合为,包括与沿第一方向进行的拖拽操作相对应的驱动轴以及与沿第二方向进行的拖拽操作相对应的驱动轴中的至少一个驱动轴在内的驱动轴的组合。当由触摸操作检测部检测出的触摸操作为拖拽操作时,动作指令生成部对该拖拽操作为第一方向与第二方向中的哪个方向进行判断。当拖拽操作为第一方向时,动作指令生成部生成用于使与沿第一方向进行的拖拽操作相对应的驱动轴驱动的动作指令,当拖拽操作为第二方向时,动作指令生成部生成用于使与沿第二方向进行的拖拽操作相对应的驱动轴驱动的动作指令。
Description
技术领域
本发明涉及一种手动操作机器人时所使用的机器人操作装置、具备该机器人操作装置的机器人系统,以及用于该机器人系统的机器人操作程序。
背景技术
例如,在工业用的机器人系统中,能够通过手动方式使机器人动作(手工操作)。这样的动作例如被用于进行示教作业(示教)等时。此时,用户使用连接在对机器人进行控制的控制器上的盒体(示教盒)等,以手动方式进行机器人的操作。为此,在盒体上设置有用于进行手动操作的专用的各种操作键(由机械开关构成的键)(例如参照专利文献1)。
在先技术文献
专利文献
专利文献1:日本特开2006-142480号公报
发明内容
发明所要解决的技术问题
盒体的显示部大多使用能够进行触摸操作的触摸面板。如果上述手动操作能够通过利用这样的触摸面板等进行的触摸操作来实施,则无需设置专用的操作键,并且可期待能够实现盒体的小型化(或扩大显示部的画面尺寸)、价格低廉化等效果。但是,仅通过将与专用的操作键同样的触摸开关形成在触摸面板上这样的单纯置换,会产生如下问题。
即,在物理操作键的情况下,虽然也取决于操作的熟练程度,但是,即使用户不直视盒体,通过用手摸索也能够掌握想要操作的操作键的位置。与此相对地,形成在触摸面板上的触摸开关的位置与操作键不同,无法通过用手摸索来掌握。在进行机器人的手动操作时,从安全性的角度来讲,用户不将视线从机器人上移开即不直视盒体是极其重要的。但是,在将操作键单纯地置换为触摸开关时,会造成用户在每次进行操作时都需要观察盒体的显示部,此时,不得不将视线从机器人上移开,因此,有可能会导致安全性降低。
本发明是鉴于上述情况而提出的,其目的在于提供一种机器人操作装置、具备该机器人操作装置的机器人系统以及用于该机器人系统的机器人操作程序,其能够通过触摸操作实现机器人的手动操作,而不会导致安全性降低。
用于解决技术问题的方案
根据第一实施方式,提供一种机器人操作装置,该机器人操作装置具备:触摸面板,用于从用户处接受触摸操作的输入;触摸操作检测部,能够检测向触摸面板输入的平面方向的触摸操作;以及动作指令生成部,根据触摸操作检测部的检测结果,生成用于使具有多个驱动轴的多关节型机器人动作的动作指令。即,机器人操作装置通过触摸操作实现机器人的手动操作。作为该机器人操作装置的操作对象的机器人是具有多个驱动轴的多关节型机器人。
在工业界中,大多使用具备四个驱动轴的四轴型水平多关节机器人,以及具备六个驱动轴的六轴型垂直多关节机器人。在对这样的机器人进行手动操作时,有时要进行各轴系统的动作,也就是使各驱动轴单独驱动的动作方式。对于四轴型机器人来说,机器人操作装置在通过手动操作使各轴系统动作时,需要能够区别判断至少四个种类的操作输入。同样,对于六轴型机器人来说,机器人操作装置在通过手动操作使各轴系统动作时,需要能够区别判断至少六个种类的操作输入。但是,在将画面作为X-Y平面时,一般的触摸面板大多对X方向以及Y方向的输入、即如用户扫动画面那样的二维输入进行检测。因此,当在机器人操作装置中采用触摸面板时,需要通过二维输入、即两个种类的操作输入对多个轴进行切换,以使多个轴动作。而且,要求在用户直观且无需极力直视画面的状态下就能够进行该操作。
因此,本实施方式的机器人操作装置具备选择操作检测部。选择操作检测部与触摸面板一体设置或者独立于触摸面板设置,并能够检测来自用户的选择操作。选择操作是指,用户对选择操作检测部的检测对象、即显示在触摸面板上的按钮或独立于触摸面板设置的按钮等进行的操作。而且,动作指令生成部能够进行选择处理、操作判断处理、第一动作指令生成处理以及第二动作指令生成处理。
选择处理是如下的处理:根据选择操作检测部的检测结果,从预先设定的、包括机器人的第一驱动轴以及机器人的第二驱动轴中的至少一个驱动轴在内的驱动轴的组合中,选择作为操作对象的一个组合,其中,所述机器人的第一驱动轴对应于沿第一方向对触摸面板进行的拖拽操作,所述机器人的第二驱动轴对应于沿和第一方向交叉的第二方向进行的拖拽操作。操作判断处理是如下的处理:当由触摸操作检测部检测出的触摸操作为拖拽操作时,对该拖拽操作为第一方向与第二方向中的哪个方向进行判断。
在这种情况下,拖拽操作是指,在保持通过用户的手指触摸触摸面板的状态下使该手指移动的操作。对于拖拽操作,只要在触摸面板上确定操作的起点与终点即可。操作的起点是指,用户使手指在触摸面板上发生触摸的位置。操作的终点是指,用户使手指离开触摸面板的位置。在这种情况下,拖拽操作中还包括被称作所谓滑动(flick)操作的用户在触摸操作板上弹拨手指的操作。
第一动作指令生成处理是如下的处理:当拖拽操作为第一方向时,生成用于使在选择处理中选择的驱动轴的组合中与沿第一方向进行的拖拽操作相对应的机器人的第一驱动轴驱动的动作指令。第二动作指令生成处理是如下的处理:当拖拽操作为第二方向时,生成用于使在选择处理中确定的驱动轴的组合中与沿第二方向进行的拖拽操作相对应的机器人的第二驱动轴驱动的动作指令。
由此,用户通过进行选择操作,能够从多个驱动轴中选择包括机器人的第一驱动轴以及机器人的第二驱动轴中的至少一个驱动轴在内的驱动轴的组合,其中,所述机器人的第一驱动轴与沿第一方向进行的拖拽操作相对应,所述机器人的第二驱动轴与沿和第一方向交叉的第二方向进行的拖拽操作相对应。而且,用户在通过选择操作选择了驱动轴的组合之后,通过沿第一方向或第二方向进行拖拽操作,能够使该组合中与该拖拽操作相对应的机器人的驱动轴驱动。根据这样的结构,机器人操作装置根据通过触摸面板进行的二维输入、即两个种类的输入,能够区别判断两个种类以上的操作输入。因此,能够在需要进行两个种类以上的操作输入的机器人操作装置中采用触摸面板。
进一步,由此,用户通过分别使用第一方向和第二方向的拖拽操作,能够分别使与第一方向的拖拽操作相对应的机器人的第一驱动轴以及与第二方向的拖拽操作相对应的机器人的第二驱动轴驱动。因此,这样的机器人操作装置能够采用触摸面板,并且能够使用户不直视画面也可进行直观的操作。其结果是,使操作性得到提高,并能够通过触摸操作实现机器人的手动操作,而不会导致安全性降低。此外,通过提高操作性,能够缩短示教所需的时间。
根据本实施方式的机器人操作装置,第一方向可以是触摸面板上的横向。第二方向可以是触摸面板上的纵向。此外,与沿第一方向进行的拖拽操作相对应的机器人的第一驱动轴可以是,用于使机器人的指尖相对于所述机器人的动作基准面沿水平方向移动的驱动轴。与沿第二方向进行的拖拽操作相对应的机器人的第二驱动轴可以是,用于使机器人的指尖相对于机器人的动作基准面沿垂直方向移动的驱动轴。
由此,机器人操作装置使机器人进行让用户从横向或纵向的拖拽操作容易联想到的动作。即,当进行横向的拖拽操作时,机器人操作装置使用于进行让用户从该操作容易联想到的动作的驱动轴驱动,此时为驱动用于使指尖沿水平方向移动的驱动轴。从该横向的拖拽操作联想到机器人的指尖沿水平方向移动的理由是基于人类的视觉、触觉信息等,例如如下所述。即,用户大多将机器人操作装置拿在用户的腰部与胸部之间。在该姿势下,相对于触摸面板的横向与水平方向大致一致。因此,用户容易将沿触摸面板画面上的横向进行的操作与机器人的指尖沿水平方向进行的移动相关联地识别出来。
此外,当进行纵向的拖拽操作时,机器人操作装置使用于进行让用户从该操作容易联想到的动作的驱动轴驱动,此时为驱动用于使机器人的指尖沿垂直方向移动的驱动轴。从该纵向的拖拽操作联想到机器人的指尖沿垂直方向移动的理由是基于人类的视觉、触觉信息等,例如如下所述。即,如上所述,用户大多将机器人操作装置拿在用户的腰部与胸部之间。并且,在这种情况下,如果考虑画面的可见性以及触摸面板的操作性,则用户以使触摸面板的画面朝着用户一侧并向下方倾斜的姿势手持机器人操作装置较为自然。当用户以这种姿势手持机器人操作装置时,机器人操作装置的画面的纵向、即上下方向与机器人的指尖的垂直方向、即上下方向一致。因此,用户容易将沿触摸面板画面上的纵向进行的操作与机器人的指尖的垂直移动动作相关联地识别出来。
在这种情况下,横向以及纵向无需严格垂直,而是允许某种程度的误差。此外,“机器人的指尖沿水平方向移动”并非意味着机器人的指尖沿完全水平的方向移动,只要达到如下程度即可,即能够使用户觉得机器人的指尖是在沿水平方向移动的程度。同样,“机器人的指尖沿垂直方向移动”并非意味着机器人的指尖沿完全垂直的方向移动,只要达到如下程度即可,即能够使用户觉得机器人的指尖是在沿垂直方向移动的程度。
综上所述,根据该机器人操作装置,用户能够进行更加直观的操作。其结果是,使操作性得到进一步提高,并能够通过触摸操作实现机器人的手动操作,而不会导致安全性降低。此外,通过提高操作性,能够进一步缩短示教所需的时间。
根据本实施方式的机器人操作装置,操作选择检测部可以检测对显示在触摸面板上的按钮或触摸面板之外的按钮进行的操作。由此,用户通过对显示在触摸面板上的按钮或触摸面板之外的按钮进行操作,能够选择作为操作对象的驱动轴的组合。此时,为了操作这些按钮,用户有可能在短时间内直视这些按钮。但是,在通常的机器人的使用方式中,用于选择(切换)作为操作对象的驱动轴或动作方式的操作几乎都是在驱动机器人之前、即机器人没有实际动作时进行的。此外,通过改进这些按钮的形状、大小、颜色等的设定,还能够缩短用户直视按钮的时间。因此认为,即使用户为了操作显示在触摸面板上的按钮或触摸面板之外的按钮而在短时间内直视这些按钮,导致安全性降低的影响也较少。
也就是说,根据这样的结构,用户会产生如下意识,即为了切换作为操作对象的驱动轴的组合而对按钮进行操作。因此,用户容易意识到对这些按钮进行的操作是用于对作为操作对象的驱动轴的组合进行选择的操作。所以,由此可减少如下的危险,即,用户进行错误的操作,从而错误地选择了操作对象,进而导致机器人错误动作。因此,使操作性得到提高,并能够通过触摸操作实现机器人的手动操作,而不会导致安全性降低。此外,通过提高操作性,能够缩短示教所需的时间。
根据本实施方式的机器人操作装置,可以具备设置有触摸面板并且可由用户手持的壳体。选择操作检测部检测对显示在触摸面板上的多个按钮进行的操作。并且,这些多个按钮配置在与把持部邻接的规定范围的区域内,所述把持部是假定用户手持壳体时所把持的部位。即,在用户把持壳体时,把持壳体的手的拇指位于壳体的前面、即触摸面板的正面侧。因此,只要位于把持壳体的手的拇指的可动范围内,用户就能够通过该拇指操作触摸面板。在这种情况下,用户以把持壳体的手的拇指的根部作为支点来描画圆弧,能够在触摸面板上活动该拇指。因此,在把持壳体的状态下,该手的拇指的可动范围为,以该拇指的根部为支点并以拇指的长度为半径的圆弧的内侧。
因此,将用于设置多个按钮的规定范围的区域例如设定在假设为把持壳体的手的拇指的可动范围的区域内、即上述圆弧的内侧,由此,用户能够对配置在该规定范围的区域内的多个按钮进行操作,而把持壳体的手不会离开壳体。由此,用户能够用双手操作触摸面板,所以能够使操作性得到进一步提高。并且,通过进一步提高操作性,能够进一步缩短示教所需的时间。
根据本实施方式的机器人操作装置,作为操作对象的机器人可以具有:基座,设置在设置面上;肩部,设置成通过第一轴可相对于所述基座旋转;下臂,设置成通过第二轴可相对于所述肩部旋转;第一上臂,设置成通过第三轴可相对于所述下臂旋转;第二上臂,设置成通过第四轴可相对于所述第一上臂旋转;手腕,设置成通过第五轴可相对于所述第二上臂旋转;以及法兰,设置成通过第六轴可相对于所述手腕旋转。即,机器人操作装置将所谓的六轴型机器人作为操作对象。并且,驱动轴的组合可以包括如下组合中的至少一个组合:驱动轴的第一组合,由与第一方向的拖拽操作相对应的第一轴以及与第二方向的拖拽操作相对应的第二轴构成;驱动轴的第二组合,由与第一方向的拖拽操作相对应的第四轴以及与第二方向的拖拽操作相对应的第三轴构成;以及驱动轴的第三组合,由与第一方向的拖拽操作相对应的第六轴以及与第二方向的拖拽操作相对应的第五轴构成。
在这种情况下,第一轴以及第二轴是设置在机器人的基座侧的驱动轴,因此,第一轴或第二轴被驱动时的机器人的指尖的活动比较大。因此,在第一轴和第二轴被驱动时,机器人的指尖的活动大小近似。此外,第六轴以及第五轴是设置在机器人的指尖侧的驱动轴,因此,第六轴或第五轴被驱动时的机器人的指尖的活动比较小。因此,在第六轴和第五轴被驱动时,机器人的指尖的活动大小近似。并且,第四轴以及第三轴是设置在机器人的基座侧与指尖侧的中间位置的驱动轴,因此,第四轴或第三轴被驱动时的机器人的指尖的活动大小为中等程度。因此,在第四轴和第三轴被驱动时,机器人的指尖的活动大小近似。
这样,驱动轴的组合由机器人的指尖的活动大小近似的驱动轴构成。因此,用户能够根据机器人的指尖的活动大小,相应地选择驱动轴的组合,所以能够使操作性得到提高。此外,例如,即使在用户弄错了拖拽操作的操作方向的情况下,由于将会驱动进行近似大小的活动的驱动轴,因此也能够减少造成用户预料之外的活动的可能性。由此,安全性得到进一步提高。
在本实施方式的机器人操作装置中,操作判断处理可以包括如下处理:当由触摸操作检测部检测出的触摸操作为拖拽操作时,判断该拖拽操作的手指的移动量。此外,动作指令生成部可以进行速度计算处理,所述速度计算处理根据手指的移动量计算出机器人的移动速度。由此,使用户拖拽操作的手指的移动量与机器人的移动速度具有相关性。因此,用户通过调整拖拽操作的手指的移动量,能够调整机器人的移动速度。因此,用户能够进行直观的操作,并使操作性得到提高。其结果是,安全性得到提高,并且能够减少示教所需的时间。
根据本实施方式的机器人操作装置,动作指令生成部可以进行移动量计算处理,所述移动量计算处理根据手指的移动量计算出机器人的移动距离。由此,用户通过调整拖拽操作的手指的移动量,能够调整机器人的移动量、即移动距离。进一步,在该机器人操作装置中,速度计算处理可以是如下的处理:根据手指的移动量除以输入拖拽操作所需的时间而得到的值,确定机器人的移动速度。由此,用户通过调整输入拖拽操作所需的时间,能够调整机器人的移动速度。
因此,用户在进行拖拽操作的输入时,通过调整该拖拽操作的移动量和输入时间,能够对机器人的移动速度和移动量两者进行调整。即,用户通过一次拖拽操作,能够对机器人的移动速度和移动量两者进行调整。由此,用户能够进行直观的操作。此外,由此用户无需为了确定机器人的移动速度和移动量而进行多个操作,例如用于确定机器人的移动速度的操作和用于确定机器人的移动量的操作。因此,操作变得简单,并使操作性得到提高。其结果是,能够使安全性得到提高,并且能够减少示教所需的时间。
根据本实施方式的机器人操作装置,操作判断处理包括:对由触摸操作检测部检测出的拖拽操作的手指的移动量进行判断的处理。此外,动作指令生成部能够进行移动量确定处理。移动量确定处理是如下的处理:对用于扩大或缩小在操作判断处理中判断出的拖拽操作的手指的移动量从而确定机器人的移动量时所使用的倍率进行设定,以确定机器人的移动量,即,从操作起始点开始到拖拽操作通过第一区间为止,将倍率设定为小于1的固定值即第一倍率,在拖拽操作通过第一区间之后,将倍率设定为大于第一倍率的值。
由此,用户通过在第一区间内进行拖拽操作,能够使机器人以小于1的固定倍率即第一倍率移动。即,用户通过反复进行第一区间内的拖拽操作,能够使机器人进行微小的动作(微动)。此外,用户通过超出第一区间进行拖拽操作,对于超出第一区间的部分,能够使机器人以大于第一倍率的倍率移动。即,用户通过超出第一区间进行操作,能够使机器人进行较大的动作(粗动)。这样,用户通过一次拖拽操作,能够以不同的倍率使机器人移动。即,由此,通过一次拖拽操作,例如能够实现使机器人微动和粗动两种动作。由此,用户无需进行用于切换机器人的微动和粗动的特别操作,就能够实现微动和粗动两者。由此,操作变得简单,并使操作性得到提高,其结果是,使安全性得到提高,并且能够减少示教所需的时间。
根据本实施方式的机器人操作装置,移动量确定处理是如下的处理:从拖拽操作的手指的移动通过第一区间开始到通过第二区间为止,将倍率设定为第二倍率,并在拖拽操作的手指的移动通过第二区间之后,将倍率设定为作为固定值的第三倍率,从而确定机器人的移动量。由此,用户通过在第一区间内反复进行拖拽操作,能够使机器人以小于1的第一倍率动作(微动)。此外,用户通过超出第一区间进行拖拽操作,能够使机器人以大于第一倍率的第二倍率或第三倍率动作(粗动)。
进一步,第二倍率为,在第一倍率至第三倍率的范围内根据拖拽操作的手指的移动量而连续增加的值。由此,位于基于第一倍率进行的微动与基于第三倍率进行的粗动之间的倍率即第二倍率,在第一倍率至第三倍率的范围内根据拖拽操作的手指的移动量连续增加。即,作为固定值的第一倍率与第三倍率之间,通过连续变化的第二倍率衔接。因此,用于确定与用户拖拽操作的操作量对应的机器人的移动量的倍率,从第一倍率开始,经过顺序变化的第二倍率后,切换至第三倍率。由此,防止用于确定机器人的移动量的倍率从第一倍率急剧地切换至第三倍率。即,能够防止机器人的移动从微动向粗动急剧变化。因此,能够防止因用户无意识地使倍率急剧变化而造成机器人的速度急剧变化、即急动。其结果是,使安全性得到进一步提高。
根据第二实施方式,提供一种机器人系统,该机器人系统具备:四轴水平多关节型机器人,具有四个驱动轴;控制器,用于控制机器人的动作;以及第一实施方式的机器人操作装置。四轴水平多关节型机器人能够进行各轴系统的动作。另一方面,如前文所述,机器人操作装置能够根据用户的手动操作生成用于进行各轴系统的动作的动作指令。因此,根据本方案,能够通过手动的操作使作为操作对象的机器人执行必要的动作。
根据第三实施方式,提供一种机器人系统,该机器人系统具备:六轴垂直多关节型机器人,具有六个驱动轴;控制器,用于控制机器人的动作;以及第一实施方式的机器人操作装置。六轴垂直多关节型机器人也能够进行各轴系统的动作。另一方面,如前文所述,机器人操作装置能够根据用户的手动操作生成用于进行各轴系统的动作的动作指令。因此,根据本方案,能够通过手动的操作使作为操作对象的机器人执行必要的动作。
根据第四实施方式,提供一种存储介质,该存储介质存储有机器人操作程序,该机器人操作程序通过安装在第一实施方式的机器人操作装置中的计算机执行。由此,通过例如具备触摸面板的通用的平板电脑等计算机执行存储在第四实施方式的存储介质中的机器人操作程序,能够在通用的平板电脑等中附加作为上述机器人操作装置的功能。
附图说明
图1是示出基于第一实施方式的四轴型机器人系统的一例的整体结构图。
图2是示出基于第一实施方式的示教盒的电气结构的一例的框图。
图3涉及第一实施方式,是示出的对示教盒进行的操作的一例的图。
图4涉及第一实施方式,是示出组合A至C的具体例的图。
图5涉及第一实施方式,是示出用户保持示教盒时的姿势的一例的图。
图6涉及第一实施方式,是示出动作指令生成部所进行的各种处理的内容的一例的流程图。
图7涉及第一实施方式,是示出动作指令生成部所进行的组合A用处理的内容的一例的流程图。
图8涉及第一实施方式,是示出动作指令生成部所进行的组合B用处理的内容的一例的流程图。
图9涉及第一实施方式,是示出的动作指令生成部所进行的组合C用处理的内容的一例的流程图。
图10涉及第一实施方式,(a)是示出由把持壳体的手导致的错误触摸的一例的图,(b)是示出用于防止该错误触摸的检测除外区域的一例的图。
图11涉及第二实施方式,是示出组合A至C的具体例的图。
图12是示出基于第三实施方式的六轴型机器人系统的一例的整体结构图。
图13涉及第三实施方式,是示出组合A至C的具体例的图。
图14涉及第四实施方式,是示出向触摸面板输入的拖拽操作的一例的图。
图15涉及第四实施方式,是示出控制部所进行的各种处理的内容的一例的流程图。
图16涉及第五实施方式,是示出向触摸面板输入的拖拽操作中某期间内的手指移动的图。
图17涉及第五实施方式,是示出控制部所进行的各种处理的内容的一例的流程图。
图18涉及第六实施方式,是示出向触摸面板输入的拖拽操作的手指的移动量的图。
图19涉及第六实施方式,(1)是示出拖拽操作的手指的移动量与操作倍率之间的相关性的图,(2)是示出拖拽操作的手指的移动量与机器人的移动量之间的相关性的图。
图20涉及第六实施方式,是示出与图19不同的其他例的图,(1)是示出拖拽操作的手指的移动量与操作倍率之间的相关性的图,(2)是示出拖拽操作的手指的移动量与机器人的移动量之间的相关性的图。
附图标记说明
1、21:机器人系统
2:四轴型机器人
4:示教盒(机器人操作装置)
11:壳体
15:触摸操作检测部
16:动作指令生成部
17:触摸面板
18:选择操作检测部
22:六轴型机器人
具体实施方式
下面,参照附图,对实施方式进行说明。
(第一实施方式)
下面,参照图1至图10,对第一实施方式进行说明。
图1示出了一般的工业用机器人的系统结构。图1所示的机器人系统1由机器人2、控制器3以及示教盒4(相当于机器人操作装置)构成。机器人2例如构成为四轴水平多关节型机器人。机器人2基于固有的机器人坐标系(由X轴、Y轴以及Z轴构成的三维直角坐标系)动作。在本实施方式中,机器人坐标系被定义为,以基座5的中心为原点O,以工作台P的上表面为X-Y平面,以与该X-Y平面垂直的坐标轴为Z轴。工作台P的上表面为用于设置机器人2的设置面。在这种情况下,该设置面相当于动作基准面。另外,作为动作基准面,并不仅限于设置面,也可以是任意的平面。
机器人2由如下部件构成:基座5,固定在工作台P的上表面(在以下的说明中也称作设置面);第一臂6,以能够以第一轴J11为中心旋转的方式连接在基座5上,其中,所述第一轴J11具有Z轴(垂直轴)方向的轴心;第二臂7,以能够以第二轴J12为中心旋转的方式连接在第一臂6的顶端部上,其中,所述第二轴J12具有Z轴方向的轴心;以及传动轴8,可上下活动且可旋转地设置在第二臂7的顶端部。使传动轴8上下活动时的轴为第三轴J13,使传动轴8旋转时的轴为第四轴J14。法兰9被定位在传动轴8的顶端部(下端部),并以可拆装的方式被安装在传动轴8的顶端部(下端部)。
基座5、第一臂6、第二臂7、传动轴8以及法兰9发挥作为机器人2的臂的功能。虽未图示,但是在作为臂顶端的法兰9上安装有末端执行器(指尖)。例如,使用机器人2进行零件检查等时,作为上述末端执行器使用照相机等,该照相机用于拍摄作为对象的零件。设置在机器人2上的多个轴(J11~J14)由分别与其对应设置的电机(未图示)驱动。在各电机的附近设置有用于检测各个旋转轴的旋转角度的位置检测器(未图示)。
用于控制机器人2的控制器3通过连接电缆连接在机器人2上。示教盒4通过连接电缆连接在控制器3上。在控制器3以及示教盒4之间,经由通信接口(图2中附图标记10所示)进行数据通信。由此,根据用户的操作而输入的各种操作信息从示教盒4被发送至控制器3。此外,控制器3对示教盒4发送各种控制信号和显示用信号等,并对示教盒4供给用于驱动的电力。
当从示教盒4赋予命令执行手动操作的信号时,控制器3进行控制,以使机器人2以手动方式动作。此外,当从示教盒4赋予命令执行自动动作的信号时,控制器3通过启动预先存储的自动程序进行控制,以使机器人2以自动方式动作。
示教盒4的大小例如为用户能够携带或能够手持进行操作的大小,如图3所示,示教盒4具备例如薄型的大致矩形箱状的壳体11。示教盒4在壳体11正面侧的中央部具备例如由液晶显示器构成的显示部12。显示部12由触摸面板17构成,用于显示各种画面。示教盒4在显示部12的周围具有作为各种物理开关的按键开关13。另外,在图1以及图3中示出了一个按键开关13。可以用显示在触摸面板17的显示部12上的按钮代替按键开关13。用户通过显示部12的触摸面板17和/或按键开关13进行各种输入操作。
用户(操作者)使用示教盒4能够执行机器人2的运行以及设定等各种功能,并且能够调出预先存储的控制程序从而进行机器人2的启动以及各种参数的设定等。此外,还能够通过手工操作、即手动操作使机器人2动作,从而进行各种示教操作。并且,根据需要,在显示部12上显示例如菜单画面、设定输入画面、状况显示画面等。
接下来,参照图2,对示教盒4的电气结构进行说明。
示教盒4在所述通信接口10、显示部12以及按键开关13的基础上,还具备控制部14、触摸操作检测部15、动作指令生成部16以及选择操作检测部18。控制部14以微型计算机为主体构成,该微型计算机例如具有CPU 141和ROM、RAM以及可擦写闪速存储器等存储区域142,该控制部14用于对示教盒4整体进行控制。存储区域142存储有机器人操作程序。控制部14在CPU 141中执行机器人操作程序,由此,通过软件虚拟地实现触摸操作检测部15以及动作指令生成部16等。另外,这些触摸操作检测部15以及动作指令生成部16可以作为例如与控制部14一体的集成电路而以硬件方式实现。
触摸操作检测部15检测对触摸面板17进行的触摸操作。具体而言,触摸操作检测部15能够检测有无触摸操作、被进行了触摸操作的画面上的位置(触摸位置)、该触摸操作的时间以及种类等。即,包括检测触摸操作是否为拖拽操作在内,触摸操作检测部15能够检测触摸操作的时间以及触摸操作的手指的移动方向、手指的移动量等。此外,在本实施方式中,将一根手指的拖拽操作作为对象,因此,触摸操作检测部15无需区别触摸操作的手指数量,但也可以是以区别手指数量的方式进行检测的结构。触摸面板17中设定有二维直角坐标系。触摸操作检测部15根据该二维直角坐标系,能够检测触摸位置以及触摸操作的种类,并进一步能够检测移动方向(操作方向或拖拽方向)以及移动量(操作量或拖拽量)等。此外,上述拖拽操作是在保持触摸的状态下使手指移动的操作。
动作指令生成部16根据由触摸操作检测部15检测出的触摸操作,生成用于使机器人手动动作的动作指令。由动作指令生成部16生成的动作指令通过通信接口10赋予给控制器3。通过使用这种结构的示教盒4,用户能够通过触摸操作进行机器人2的手动操作。
在此,将相对于触摸面板17的纵向以及横向定义如下。相对于触摸面板17的纵向是指,用户在手持示教盒4进行操作的状态下的纵向、即上下方向,在此为图3的纸面的纵向。即,纵向是包括上方向和下方向两个方向在内的概念。此外,相对于触摸面板17的横向是指,与上述纵向垂直的方向、即左右方向,在此为图3的纸面的横向。换言之,相对于触摸面板17的横向是指,用户在手持示教盒4进行操作的状态下,相对于用户身体的前面平行的方向。即,横向是包括右方向和左方向两个方向在内的概念。在这种情况下,触摸面板17的纵向以及横向意味着与用户观察到的触摸面板17相对的相对方向。即,即使使示教盒4旋转等从而使触摸面板17的姿势发生变化,相对于用户的纵向以及横向的相对关系也不会发生变化。
即,相对于触摸面板17的纵向以及横向对于触摸面板17不是绝对方向,而可以根据用户与示教盒4的相对位置关系来确定。因此,例如能够将示教盒4设置成如下的结构。在示教盒4中搭载加速度传感器和/或陀螺传感器等用于检测自身姿势的单元。示教盒4以重力方向或初始姿势为基准,对触摸面板17上的纵向(上下方向)以及横向(左右方向)进行判断。由此,即使示教盒4的姿势发生变化,从用户角度观察,触摸面板17上的纵向(上下方向)以及横向(左右方向)也维持在固定的方向上。
选择操作检测部18能够检测由用户对触摸面板17或触摸面板17之外的按钮进行的选择操作。选择操作是用于选择作为操作对象的驱动轴的组合的操作,是由用户对选择操作检测部18的检测对象、即显示在触摸面板17上的按钮或独立于触摸面板17设置的按钮等进行的操作。在本实施方式中,作为选择操作检测部18的检测对象即选择操作部,在触摸面板17的显示部12上显示多个按钮,在此为三个按钮171~173。三个按钮171~173由标记了文字“A”的第一按钮171、标记了文字“B”的第二按钮172以及标记了文字“C”的第三按钮173构成。
选择操作是对这些按钮171、172、173进行的触摸操作。在这种情况下,对于由用户对触摸面板17进行的触摸操作,触摸操作检测部15以及选择操作检测部18均进行检测。另外,作为选择操作检测部18的检测对象的选择操作部并不限于显示在触摸面板17的显示部12上的按钮171~173,例如也可以是独立于触摸面板17设置的物理按钮。
用户通过对各按钮171、172、173中的任意一个进行触摸操作,能够选择作为操作对象的驱动轴的组合。控制部14预先存储有与各按钮171~173相对应的驱动轴的组合。该驱动轴的组合包括如下驱动轴中的至少一个驱动轴:与沿第一方向对触摸面板17进行的拖拽操作相对应的驱动轴,以及与沿和第一方向交叉的第二方向进行的拖拽操作相对应的驱动轴。在本实施方式中,第一方向与第二方向垂直。在这种情况下,第一方向与第二方向垂直并不是指两条线段以90度相交的几何学状态,而是指第一方向与第二方向以保有某程度的幅度的方式大致90度交叉的概念。因此,第一方向与第二方向无需在几何学上完全垂直。此外,在本实施方式中,第一方向设定为横向。第二方向设定为纵向。
参照图4,对驱动轴的组合的具体例进行说明。控制部14将作为驱动轴的组合的三个组合即组合A、B、C与各按钮171、172、173相对应地存储起来。在这种情况下,驱动轴的组合是指,由机器人2的四个驱动轴J11~J14中的一个或两个驱动轴构成的组合。示教盒4在从三个组合中选择了任意一个组合的状态下,当被实施沿第一方向(在这种情况下为横向)或第二方向(在这种情况下为纵向)的拖拽操作时,使机器人执行让用户从该拖拽操作的操作方向容易联想到的动作。
具体而言,如图4的(1)所示,第一按钮171与组合A相对应。当通过选择操作检测部18检测出对第一按钮171进行了操作时,动作指令生成部16选择组合A。在组合A中,沿横向(第一方向)进行的拖拽操作与第一轴J11相对应,沿纵向(第二方向)进行的拖拽操作与第三轴J13相对应。
即,在对第一按钮171进行操作从而选择了组合A的状态下,当检测出沿横向进行的拖拽操作时,动作指令生成部16生成用于使第一轴J11驱动的动作指令。此外,在对第一按钮171进行操作从而选择了组合A的状态下,当检测出沿纵向进行的拖拽操作时,动作指令生成部16生成用于使第三轴J13驱动的动作指令。由此,用户通过对第一按钮171进行触摸操作,能够选择组合A。然后,在选择了组合A的状态下,用户通过沿横向进行拖拽操作,能够使第一轴J11驱动。此外,在选择了组合A的状态下,用户通过沿纵向进行拖拽操作,能够使第三轴J13驱动。
在这种情况下,当用户对触摸面板17进行向右方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向右方向移动,向正(+)方向驱动第一轴J11。另一方面,当用户对触摸面板17进行向左方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向左方向移动,向负(-)方向驱动第一轴J11。此外,当用户对触摸面板17进行向上方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向上方向、即远离动作基准面P的方向移动,向正(+)方向驱动第三轴J13。另一方面,当用户对触摸面板17进行向下方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向下方向、即接近动作基准面P的方向移动,向负(-)方向驱动第三轴J13。
可以认为,用户从横向的拖拽操作容易联想到第一轴J11的驱动,而从纵向的拖拽操作容易联想到第三轴J13的驱动。从横向的拖拽操作联想到第一轴J11的驱动的理由例如如下所述。即,在四轴水平多关节机器人2中,第一轴J11是沿垂直方向延伸的旋转轴。因此,当第一轴J11驱动时,机器人2的指尖以第一轴J11为中心沿水平方向移动。在此,用户在对机器人2进行手动操作时,大多从水平方向的稍许上方观察机器人2。此时,用户将看到机器人2的指尖沿着水平横向移动。因此,用户的操作方向(横向)与机器人2的指尖的移动方向一致。由此,用户容易将对触摸面板17进行的横向操作与基于第一轴J11的驱动而进行的指尖的移动动作相关联地识别出来。因此,用户容易将机器人2的指尖的移动方向与自身的拖拽操作的操作方向相关联地识别出来。
此外,从纵向的拖拽操作联想到第三轴J13的驱动的理由例如如下所述。即,第三轴J13是使机器人2的指尖相对于动作基准面P沿垂直方向移动的驱动轴,在此是使机器人2的指尖相对于重力方向沿上下方向移动的驱动轴。如图5所示,通常情况下,用户100大多将示教盒4拿在用户100的腰部与胸部之间。在这种情况下,如果考虑触摸面板17的可见性以及操作性,则用户100以使触摸面板17的画面朝着用户100一侧并向下方倾斜的姿势手持示教盒4较为自然。当用户100以这样的姿势手持示教盒4时,示教盒4的纵向、即上下方向与机器人2的指尖的垂直方向、即上下方向一致。在图5中用箭头标记A1表示出了示教盒4的上方向,用箭头标记A2表示出了下方向。因此,用户100容易将沿触摸面板17画面上的纵向进行的操作与基于第三轴J13的驱动而使机器人2的指尖沿垂直方向进行的移动相关联地识别出来。
如图4的(2)所示,第二按钮172与组合B相对应。当通过选择操作检测部18检测出对第二按钮172进行了操作时,动作指令生成部16选择组合B。在组合B中,沿横向(第一方向)进行的拖拽操作与第二轴J12相对应。另一方面,沿纵向(第二方向)进行的拖拽操作不与任何一个驱动轴对应。
即,在对第二按钮172进行操作从而选择了组合B的状态下,当检测出沿横向进行的拖拽操作时,动作指令生成部16生成用于使第二轴J12驱动的动作指令。另一方面,在对第二按钮172进行操作从而选择了组合B的状态下,当检测出沿纵向进行的拖拽操作时,动作指令生成部16不生成动作指令。由此,用户通过对第二按钮172进行触摸操作,能够选择组合B。然后,在选择了组合B的状态下,用户通过沿横向进行拖拽操作,能够使第二轴J12驱动。
在这种情况下,当用户对触摸面板17进行向右方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向右方向移动,向正(+)方向驱动第二轴J12。另一方面,当用户对触摸面板17进行向左方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向左方向移动,向负(-)方向驱动第二轴J12。
可以认为,用户从横向的拖拽操作容易联想到第二轴J12的驱动。其理由与上述第一轴J11的情况相同。即,在四轴水平多关节机器人2中,第二轴J12是沿垂直方向延伸的旋转轴。因此,当第二轴J12驱动时,机器人2的指尖以第二轴J12为中心沿水平方向移动。因此,与第一轴J11的情况同样地,在第二轴J12的情况下,用户的操作方向(横向)也与机器人2的指尖的移动方向一致。由此,用户容易将对触摸面板17进行的横向操作与基于第二轴J12的驱动而进行的指尖的移动动作相关联地识别出来。因此,用户容易将机器人2的指尖的移动方向与自身的拖拽操作的操作方向相关联地识别出来。
如图4的(3)所示,第三按钮173与组合C相对应。当通过选择操作检测部18检测出对第三按钮173进行了操作时,动作指令生成部16选择组合C。在组合C中,沿横向(第一方向)进行的拖拽操作与第四轴J14相对应。另一方面,沿纵向(第二方向)进行的拖拽操作不与任何一个驱动轴对应。
即,在对第三按钮173进行操作从而选择了组合C的状态下,当检测出沿横向进行的拖拽操作时,动作指令生成部16生成用于使第四轴J14驱动的动作指令。另一方面,在对第三按钮173进行操作从而选择了组合C的状态下,当检测出沿纵向进行的拖拽操作时,动作指令生成部16不生成动作指令。即,用户通过对第三按钮173进行触摸操作,能够选择组合C。然后,在选择了组合C的状态下,用户通过沿横向进行拖拽操作,能够使第四轴J14驱动。
在这种情况下,当用户对触摸面板17进行向右方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向右方向旋转,向正(+)方向驱动第四轴J14。另一方面,当用户对触摸面板17进行向左方向拖拽的拖拽操作时,动作指令生成部16为了使机器人2的指尖向左方向旋转,向负(-)方向驱动第四轴J14。
可以认为,用户从横向的拖拽操作容易联想到第四轴J14的驱动。其理由例如如下所述。即,第四轴J14是用于使机器人2的指尖旋转的轴。大多是为了对机器人2进行微调整而进行机器人2的手动操作。在水平方向上观察机器人2的指尖时,将看到通过机器人2的指尖旋转使机器人2的指尖的某一点沿水平方向直线移动。因此,可以认为,用户沿横向对触摸面板17进行的操作使用户联想到机器人2的指尖的旋转动作。因此,用户容易将对触摸面板17进行的横向操作与机器人2的指尖的旋转动作相关联地识别出来。
为了实现如上所述的各个动作,动作指令生成部16能够执行选择处理、操作判断处理、第一动作指令生成处理以及第二动作指令生成处理。选择处理是如下的处理:根据选择操作检测部18的检测结果,从预先设定的驱动轴的组合中选择出作为操作对象的一个组合。操作判断处理是如下的处理:当由触摸操作检测部15检测出的触摸操作为拖拽操作时,对该拖拽操作的操作方向为第一方向(在这种情况下为横向)与第二方向(在这种情况下为纵向)中的哪个方向进行判断。
第一动作指令生成处理是如下的处理:当拖拽操作的操作方向为第一方向(在这种情况下为横向)时,生成用于使在选择处理中选择的驱动轴中与沿第一方向(在这种情况下为横向)进行的拖拽操作相对应的驱动轴(在这种情况下为第一轴J11、第二轴J12以及第四周J14中的一个)驱动的动作指令。第二动作指令生成处理是如下的处理:当拖拽操作的操作方向为第二方向(在这种情况下为纵向)时,生成用于使在选择处理中确定的驱动轴的组合中与沿纵向进行的拖拽操作相对应的驱动轴(在这种情况下为第三轴J13,或者没有对象)驱动的动作指令。
当控制部14执行机器人操作用程序时,动作指令生成部16执行如图6所示的处理。此时,作为选择处理,动作指令生成部16首先执行步骤S11、S12、S13。动作指令生成部16在步骤S11中判断是否对第一按钮171进行了操作。动作指令生成部16在检测出对第一按钮171进行了操作时(步骤S11的判断结果为“是”),迁移至步骤S14,从而执行组合A用的处理。
作为组合A用的处理,动作指令生成部16在执行图7所示的处理时,首先在步骤S21中判断拖拽操作的操作方向以及操作量。该步骤S21的处理相当于操作判断处理。接下来,在步骤S22中,动作指令生成部16根据步骤S21的判断结果,判断拖拽操作的操作方向是否为横向(第一方向)。然后,在拖拽操作的操作方向为横向(第一方向)时(步骤S22的判断结果为“是”),动作指令生成部16迁移至步骤S23,生成用于使第一轴J11驱动的动作指令。另一方面,在拖拽操作的操作方向不是横向(第一方向)时(步骤S22的判断结果为“否”),动作指令生成部16迁移至步骤S24。该步骤S22、S23的处理相当于第一动作指令生成处理。
接下来,在步骤S24中,动作指令生成部16根据步骤S21的判断结果,判断拖拽操作的操作方向是否为纵向(第二方向)。然后,在拖拽操作的操作方向为纵向(第二方向)时(步骤S24的判断结果为“是”),动作指令生成部16迁移至步骤S25,生成用于使第三轴J13驱动的动作指令。然后,动作指令生成部16结束组合A用的处理(返回)。另一方面,在拖拽操作方向不是纵向(第二方向)时(步骤S24的判断结果为“否”),动作指令生成部16结束组合A用的处理(返回)。然后,动作指令生成部16结束图6所示的一系列的处理。该步骤S24、S25的处理相当于第二动作指令生成处理。
拖拽操作的操作方向有时为斜方向,即混合了横向的分量和纵向的分量的方向。此时,动作指令生成部16例如能够对横向的分量和纵向的分量的比例进行比较,优先判断其比例较大的一方。即,即使在拖拽操作的操作方向为斜方向时,只要横向的分量比纵向的分量大,动作指令生成部16就能够将该拖拽操作的操作方向判断为横向。同样地,即使在拖拽操作的操作方向为斜方向时,只要纵向的分量比横向的分量大,动作指令生成部16就能够将该拖拽操作的操作方向判断为纵向。由此,即使在拖拽操作的操作方向产生某种程度的偏移时,也能够设置成用户所意图的操作方向。其结果是,操作性得到提高。
此外,在拖拽操作的操作方向为斜方向时,动作指令生成部16可以分别检测横向和纵向的分量,并根据这些分量生成用于驱动第一轴J11以及第三轴J13的动作指令。由此,用户通过进行斜方向的拖拽操作,能够同时操作第一轴J11以及第三轴J13。由此,由于能够同时操作两个轴,因而能够进一步缩短示教所需的时间。
在如图6所示的步骤S11中,动作指令生成部16在没有检测出第一按钮171的操作时(步骤S11的判断结果为“否”),迁移至步骤S12,并判断是否对第二按钮172进行了操作。当检测出对第二按钮172进行了操作时(步骤S12的判断结果为“是”),动作指令生成部16迁移至步骤S15,执行组合B用的处理。
作为组合B用的处理,动作指令生成部16在执行图8所示的处理时,首先在步骤S31中判断拖拽操作的操作方向以及操作量。该步骤S31的处理相当于操作判断处理。接下来,在步骤S32中,动作指令生成部16根据步骤S31的判断结果,判断拖拽操作的操作方向是否为横向(第一方向)。然后,在拖拽操作的操作方向为横向(第一方向)时(步骤S32的判断结果为“是”),动作指令生成部16迁移至步骤S33,生成用于使第二轴J12驱动的动作指令,然后结束组合B用的处理(返回)。另一方面,在拖拽操作的操作方向不是横向(第一方向)时(步骤S32的判断结果为“否”),动作指令生成部16结束组合B用的处理(返回)。然后,动作指令生成部16结束图6所示的一系列的处理。该步骤S32、S33的处理相当于第一动作指令生成处理。
在图6所示的步骤S12中,动作指令生成部16在没有检测出第二按钮172的操作时(步骤S12的判断结果为“否”),迁移至步骤S13,并判断是否对第三按钮173进行了操作。当检测出对第三按钮173进行了操作时(步骤S13的判断结果为“是”),动作指令生成部16迁移至步骤S16,执行组合C用的处理。
作为组合C用的处理,动作指令生成部16在执行图9所示的处理时,首先在步骤S41中判断拖拽操作的操作方向以及操作量。该步骤S41的处理相当于操作判断处理。接下来,在步骤S42中,动作指令生成部16根据步骤S41的判断结果,判断拖拽操作的操作方向是否为横向(第一方向)。然后,在拖拽操作的操作方向为横向(第一方向)时(步骤S42的判断结果为“是”),动作指令生成部16迁移至步骤S43,生成用于使第四轴J14驱动的动作指令,然后结束组合C用的处理(返回)。
另一方面,在拖拽操作的操作方向不是横向(第一方向)时(步骤S42的判断结果为“否”),动作指令生成部16结束组合C用的处理(返回)。然后,动作指令生成部16结束图6所示的一系列的处理。该步骤S42、S43的处理相当于第一动作指令生成处理。然后,通过上述处理生成的动作指令被发送至控制器3。然后,控制器3根据该动作指令控制机器人2的动作。
根据本实施方式,用户通过进行选择操作,即通过操作第一按钮171、第二按钮172以及第三按钮173中的某一个,能够从驱动轴的组合A~C中选择出一个组合。而且,用户通过选择操作选择了驱动轴的组合之后,通过沿横向(第一方向)或纵向(第二方向)进行拖拽操作,能够使该选择的驱动轴的组合中与该拖拽操作的操作方向相对应的驱动轴驱动。根据这样的结构,示教盒4根据通过触摸面板17进行的二维输入、即两个种类的输入,能够区别判断两个种类以上的操作输入。因此,即使在示教盒4例如将具备四个驱动轴的四轴机器人作为操作对象并需要进行两个种类以上的操作输入时,也能够采用触摸面板17。
进一步,由此,用户通过分别使用横向(第一方向)和纵向(第二方向)的拖拽操作,能够分别使与横向(第一方向)的拖拽操作相对应的驱动轴以及与纵向(第二方向)的拖拽操作相对应的驱动轴驱动。因此,这样的示教盒4能够采用触摸面板17,并且能够使用户不直视画面也可进行直观的操作。其结果是,使操作性得到提高,并能够通过触摸操作实现机器人2的手动操作,而不会导致安全性降低。此外,通过提高操作性,能够缩短示教所需的时间。
此外,在上述结构中,第一方向为触摸面板17上的横向,第二方向为触摸面板17上的纵向。此外,与沿横向(第一方向)进行的拖拽操作相对应的驱动轴是用于使机器人2的指尖相对于动作基准面P沿水平方向移动的驱动轴,在此为第一轴J11、第二轴J12以及第四轴J14。与沿纵向(第二方向)进行的拖拽操作相对应的驱动轴是用于使机器人2的指尖相对于动作基准面P沿垂直方向移动的驱动轴,在此为第三轴J13。
由此,当进行横向的拖拽操作时,示教盒4使用于进行让用户从该操作容易联想到的动作的驱动轴驱动,在此为驱动用于使机器人2的指尖沿水平方向移动的驱动轴(第一轴J11、第二轴J12或第四轴J14)。此外,当进行纵向的拖拽操作时,示教盒4使用于进行让用户从该操作容易联想到的动作的驱动轴驱动,在此为驱动用于使机器人2的指尖沿垂直方向移动的驱动轴(第三轴J13)。
综上所述,根据该机器人操作装置,用户能够进行更加直观的操作。其结果是,能够使操作性得到进一步提高,并能够通过触摸操作实现机器人的手动操作,而不会导致安全性降低。此外,通过提高操作性,能够进一步缩短示教所需的时间。
此外,根据该示教盒4,选择操作检测部18检测对显示在触摸面板17的显示部12上的按钮171~173进行的操作,或者对触摸面板17之外的按钮进行的操作,其中,并未详细图示出所述触摸面板17之外的按钮。由此,用户通过对显示在触摸面板17上的按钮171~173等进行操作,能够选择作为操作对象的驱动轴的组合。在这种情况下,为了操作这些按钮171~173等,用户有可能在短时间内直视这些按钮171~173。
但是,在通常的机器人2的使用方式中,用于选择(切换)作为操作对象的驱动轴的操作几乎都是在驱动机器人2之前、即机器人2没有实际动作时进行的。此外,通过改进这些按钮171~173等的形状、大小、颜色等的设定,还能够缩短用户直视按钮171~173等的时间。因此认为,即使用户为了操作显示在触摸面板17上的按钮171~173等而在短时间内直视这些按钮,导致安全性降低的影响也较少。
也就是说,根据这样的结构,用户会产生如下意识,即为了切换作为操作对象的驱动轴的组合而对按钮进行操作。因此,用户容易意识到对这些按钮171~173进行的操作是用于对作为操作对象的驱动轴的组合进行选择的操作。所以,由此可减少如下的危险,即,用户进行错误的操作,从而错误地选择了操作对象,进而导致机器人2错误动作。因此,使操作性得到提高,并能够通过触摸操作实现机器人2的手动操作,而不会导致安全性降低。此外,通过提高操作性,能够缩短示教所需的时间。
在上述实施方式中,动作指令生成部16能够构成为,仅在选择操作检测部18检测到对按钮171~173进行的触摸操作的期间内,选择各组合A~C,而在选择操作检测部18没有检测到对按钮171~173进行的触摸操作的状态下,不选择组合A~C中的任意一个。在这种情况下,用户通过一边对按钮171~173中的任意一个进行触摸操作一边进行拖拽操作,能够使与被选择的组合A~C相对应的驱动轴驱动。另一方面,用户在未对按钮171~173中的任意一个进行触摸操作的状态下,不能使任何一个驱动轴驱动。由此,每当进行操作时,让用户对按钮171~173进行触摸操作,由此使用户的操作意图变得明确。因此,即使在违背用户的意图而错误地输入了拖拽操作时,在未对按钮171~173进行操作的状态下,也不会使机器人2动作,因此安全性会提高。
此外,控制部14可以构成为,在选择操作检测部18检测到对按钮171~173进行的触摸操作时,将与该被操作的按钮171~173相对应的组合存储到存储区域142中。在这种情况下,例如在向示教盒4进行供电的期间内或者直到被新的信息覆盖为止期间内,存储区域142保持关于被选择的组合的信息。由此,用户无需在每次操作时都一一对按钮171~173进行操作,因此使操作性得到提高。其结果是,能够进一步缩短示教所需的时间。
此外,对该示教盒4进行的拖拽操作是通过一根手指进行的所谓一笔画的拖拽操作。因此,该示教盒4具备用一根手指就能够容易地进行输入操作的优点。并且,该优点在利用所谓的触摸笔或手写笔等的定点设备时也是有效的。即,考虑到工业用机器人的动作环境,为了确保用户的安全,用户有可能会佩戴着手套,或者有可能在用户的手指上附着有润滑油等阻碍进行触摸操作的物质。在这种情况下,即使用户用手指进行触摸操作,触摸操作检测部15也有可能无法正确识别该触摸操作。另一方面,即使在用户佩戴着手套或者在用户的手指上附着有润滑油等的情况下,用户通过利用上述定点设备,也能够进行正确的触摸操作。基于上述理由可知,本发明的优点在于,在机器人操作装置以工业用机器人为操作对象时,能够容易地利用上述定点设备。
在此,如图1等所示,触摸操作检测部15检测对设置在可由用户手持的壳体11上的触摸面板17进行的触摸操作。在设置成这样的结构时,用户在用一只手把持壳体11的基础上,通过另一只手的手指进行各项操作。此时,把持壳体11的一只手的手指有可能会错误地触碰到触摸面板17。其结果是,有可能会执行用户未意识到的动作。
因此,触摸操作检测部15从检测对象中排除对触摸面板17中与把持部(在图10的(a)中附图标记11a所示)邻接的规定范围的区域(在以下的说明中称作检测除外区域)进行的触摸操作,其中,所述把持部是假定用户手持壳体11时所把持的部位。由此,即使把持侧的手(例如左手)进行了错误触摸,该错误触摸也不会被检测到,因此,能够可靠地防止执行用户未意识到的动作等错误动作。
本发明人以多个评价者为对象进行了如下的操作测试:在用一只手把持壳体11的状态下,使用另一只手并通过一根手指进行拖拽操作。另外,在该操作测试中,作为示教盒4使用了如下两种装置,即具有7英寸左右的显示部12的装置以及具有4英寸左右的显示部12的装置。分析测试结果得知,在使用具有7英寸左右的显示部12的装置时,评价者大多如图10的(a)所示那样把持壳体11。即,右撇子的评价者用左手把持壳体11的左下部分(把持部11a)。此时,左手手指中的拇指会触碰到壳体11的正面(设置有触摸面板17的面)。此时,会出现拇指错误地触碰到触摸面板17中与把持部11a邻接的区域的情况。
因此,在显示部12的尺寸为7英寸左右时,如图10的(b)所示,将如下的区域设定为检测除外区域:以用户把持壳体11时拇指的根部所处可能性较高的位置为中心,半径50mm以内的区域。另外,将半径设定为50mm以内的理由在于,日本人的拇指的平均长度为大约60mm,并且认为错误触摸时拇指肚(指肚)将会发生接触。此外,在这种情况下,在用户为左撇子时,错误触摸到与右撇子左右相反的位置的可能性较高,因此,使检测除外区域左右反转。进一步,分析上述操作测试的结果得知,评价者把持壳体11时,拇指的角度(以壳体11的侧面为基准的角度)大多为65度左右。因此,上述检测除外区域并非是半径为50mm的半圆,可以变更为65度的扇形形状(图10的(b)中用阴影线表示的区域)。
此外,在上述操作测试的结果中,当使用具有4英寸左右的显示部12的装置时,没有出现把持壳体11的手的手指触碰到触摸面板17的情况。可以认为,这是由于壳体11整体为一只手收容得下的大小。因此,可以认为,在显示部12的尺寸为4英寸左右时,即在壳体11为一只手收容得下的大小时,无需设定检测除外区域。与此相对地,在显示部12的尺寸为7英寸左右时,即在壳体11为一只手收容不下的大小时,需要设定检测除外区域。因此,只要根据壳体11的大小,使上述检测除外区域的设定有效或者无效即可。
在机器人系统1中,机器人2的错误动作是特别重要的问题,因此需要可靠地防止其发生。另一方面,对于触摸操作来说,从其性质上来看,对触摸产生错误判定等的可能性比较高。但是,根据本实施方式,由于实施了如前所述的改进,因此,既能够通过触摸操作实现机器人2的手动操作,还能够可靠地防止机器人2发生错误动作。
并且,作为选择操作部的三个按钮171~173被配置在上述检测除外区域内,即被配置在与假定用户手持壳体11时所把持的把持部邻接的规定范围的区域内。在这种情况下,选择操作检测部18能够检测出对配置在检测除外区域内的按钮171~173进行的操作。
在用户把持壳体11时,把持壳体11的手的拇指位于壳体11的前面、即触摸面板17的正面侧。因此,只要位于把持壳体11的手的拇指的可动范围内,用户就能够通过该拇指操作触摸面板17。在这种情况下,用户以把持壳体11的手的拇指的根部作为支点来描画圆弧,能够在触摸面板上活动该拇指。因此,在把持壳体11的状态下,该手的拇指的可动范围为,以该拇指的根部为支点并以拇指的长度为半径的圆弧的内侧。
因此,将用于设置三个按钮171~173的规定范围的区域例如设定在假定为把持壳体11的手的拇指的可动范围的区域内、即上述圆弧的内侧、也就是检测除外区域内,由此,用户能够对配置在该规定范围的区域内的多个按钮171~173进行操作,而把持壳体11的手不会离开壳体11。由此,用户能够用双手对触摸面板17进行操作。其结果是,能够使示教盒4的操作性得到进一步提高。并且,通过进一步提高操作性,能够进一步缩短示教所需的时间。
此外,三个按钮171~173在触摸面板17上纵向配置。由此,在用户把持壳体11的状态下,该进行把持的手的拇指的移动方向与按钮171~173的配置方向大致一致,因此容易进行操作。三个按钮171~173的配置不限于上述方式。例如,也能够以使三个按钮171~173分别形成三角形的顶点的方式配置该三个按钮171~173。此外,如果对作为操作对象的驱动轴进行限定,则也可将按钮设置为两个。
此外,也能够代替上述显示在显示部12上的按钮171~173,而将选择操作检测部18的检测对象设定为独立于触摸面板17设置的物理按钮。例如,也可以构成为如下方式:将选择操作检测部18的检测对象设定为按键开关13,并且,每当检测出对按键开关13进行的操作时,动作指令生成部16依次切换组合A~C的选择。此外,也可以在壳体11上设置与组合A~C相对应的物理按钮。
另外,在本实施方式中,相对于触摸面板17,将第一方向设定为横向,并且,相对于触摸面板17,将第二方向设定为纵向,但是,并不限定于此。例如,第一方向以及第二方向也可以在触摸面板17上斜方向相互交叉。
(第二实施方式)
接下来,参照图11,对第二实施方式进行说明。在本实施方式以及以后的实施方式中,对于与第一实施方式的要素相同或类似的要素赋予相同的附图标记,并对其省略说明。
在第二实施方式中,驱动轴的组合的具体内容与上述第一实施方式不同。即,在第一实施方式中,第三轴J13的驱动与组合A中沿纵向(第二方向)进行的拖拽操作对应。然而,在本实施方式中,第三轴J13的驱动与组合C中沿纵向(第二方向)进行的拖拽操作对应。
即,在本实施方式中,组合C由对第四轴J14进行的操作以及对第三轴J13进行的操作构成。第四轴J14是驱动轴J11、J12、J14中位于最靠近机器人2的指尖侧的驱动轴,其中,上述驱动轴J11、J12、J14使机器人2的指尖进行让人联想到沿水平方向移动的动作。即,与其他两个轴J11、J12相比,当第四轴J14被驱动时机器人2的指尖的移动量最小。此外,第三轴J13也沿上下方向移动,因此,与第一轴J11以及第二轴J12相比,当第三轴J13被驱动时机器人2的指尖的移动量较小。即,在第四轴J14和第三轴J13被驱动时,机器人2的指尖的移动量接近。
这样,将机器人2的指尖的移动量接近的驱动轴作为同一组合,并同时作为操作对象,由此,能够获得如下的优点。即,第一,可以认为用户在同时操作两个轴时,期待通过这两个轴的驱动而使机器人2的指尖移动的移动量是同等的。因此,通过将机器人2的指尖的移动量接近的轴作为同一组合,能够与用户的期待相符。由此,用户能够进行直观的操作,并能够使通过同时操作两个轴进行示教的示教速度提高。
第二,用户通过选择组合A、B能够使机器人2进行较大的动作(粗动),而通过选择组合C能够使机器人2进行精细的动作(微动)。由此,用户能够在粗动和微动之间进行切换,因此,能够使示教盒4的操作性得到提高。第三,在用户选择了组合C的状态下,当无意识地输入了斜方向的拖拽操作时,有可能会导致第四轴J14和第三轴J13同时被驱动。即使在第四轴J14和第三轴J13同时被驱动的情况下,由于通过这两个驱动轴J14、J13的驱动而使机器人2移动的移动量接近,因此,能够防止发生与用户原本意图进行的动作差异较大的动作。由此,即使在用户错误地输入了斜方向的拖拽操作时,也能够避免发生严重违反用户预想的动作,其结果是,使安全性得到进一步提高。
(第三实施方式)
接下来,参照图12以及图13,对第三实施方式进行说明。在第三实施方式中,相对于上述各实施方式,改变了作为对象的机器人的种类。相对于图1所示的第一实施方式的机器人系统1,图12所示的本实施方式的机器人系统21的不同点在于,代替机器人2而具备机器人22。机器人22例如构成为六轴垂直多关节型机器人。即,在基座25上,通过具有Z轴方向的轴心的第一轴J21,以可在水平方向上旋转的方式连接有肩部26。在肩部26上,通过具有Y轴方向的轴心的第二轴J22,以可在垂直方向上旋转的方式连接有下臂27的下端部,其中,所述下臂27向上方延伸。在下臂27的顶端部,通过具有Y轴方向的轴心的第三轴J23,以可在垂直方向上旋转的方式连接有第一上臂28。在第一上臂28的顶端部,通过具有X轴方向的轴心的第四轴J24,以可扭动旋转的方式连接有第二上臂29。在第二上臂29的顶端部,通过具有Y轴方向的轴心的第五轴J25,以可在垂直方向上旋转的方式连接有手腕30。在手腕30上,通过具有X轴方向的轴心的第六轴J26,以可扭动旋转的方式连接有法兰31。
基座25、肩部26、下臂27、第一上臂28、第二上臂29、手腕30以及法兰31发挥作为机器人22的臂的功能。虽未图示,但是在作为臂顶端的法兰31(相当于指尖)上例如安装有气动卡盘等工具。设置在机器人22上的多个轴(J21~J26)与第一实施方式的机器人2同样地由分别与其对应设置的电机(未图示)驱动。此外,在各电机的附近设置有用于检测各个旋转轴的旋转位置的位置检测器(未图示)。该六轴垂直多关节型机器人22具备六个驱动轴。
参照图13,对本实施方式的驱动轴的组合的具体例进行说明。驱动轴的组合是指,由机器人22的六个驱动轴J21~J26中的一个或两个驱动轴构成的组合。在本实施方式中,拖拽操作的第一方向也是横向,第二方向也是纵向。在组合A中,沿横向(第一方向)进行的拖拽操作与第一轴J21相对应,沿纵向(第二方向)进行的拖拽操作与第二轴J22相对应。
在对第一按钮171进行操作从而选择了组合A的状态下,当检测出沿横向进行的拖拽操作时,动作指令生成部16生成用于使第一轴J21驱动的动作指令。此外,在对第一按钮171进行操作从而选择了组合A的状态下,当检测出沿纵向进行的拖拽操作时,动作指令生成部16生成用于使第二轴J22驱动的动作指令。由此,在选择了组合A的状态下,用户通过沿横向进行拖拽操作,能够使第一轴J21驱动,而通过沿纵向进行拖拽操作,能够使第二轴J22驱动。
在这种情况下,当用户对触摸面板17进行向右方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向右方向移动,向正(+)方向驱动第一轴J21。另一方面,当用户对触摸面板17进行向左方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向左方向移动,向负(-)方向驱动第一轴J21。此外,当用户对触摸面板17进行向上方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向上方向、即远离动作基准面P的方向移动,向正(+)方向驱动第二轴J22。另一方面,当用户对触摸面板17进行向下方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向下方向、即接近动作基准面P的方向移动,向负(-)方向驱动第二轴J22。
可以认为,用户从横向的拖拽操作容易联想到第一轴J21的驱动,而从纵向的拖拽操作容易联想到第二轴J22的驱动。从横向的拖拽操作联想到第一轴J21的驱动的理由例如如下所述。即,在六轴垂直多关节机器人22中,第一轴J21是沿垂直方向延伸的旋转轴。因此,当第一轴J21驱动时,机器人22的指尖以第一轴J21为中心沿水平方向移动。在此,用户在对机器人22进行手动操作时,大多从水平方向的稍许上方观察机器人22。此时,用户将看到机器人22的指尖沿着水平横向移动。因此,用户的操作方向(横向)与机器人22的指尖的移动方向一致。由此,用户容易将对触摸面板17进行的横向操作与基于第一轴J21的驱动而进行的指尖的移动动作相关联地识别出来。因此,用户容易将机器人22的指尖的移动方向与自身的拖拽操作的操作方向相关联地识别出来。
此外,从纵向的拖拽操作联想到第二轴J22的驱动的理由例如如下所述。即,第二轴J22是沿水平方向延伸的旋转轴。即,第二轴J22是使机器人22的指尖相对于动作基准面P沿垂直方向移动的驱动轴,即用于使机器人22的指尖相对于重力方向沿上下方向移动的驱动轴。并且,如图5所示,在用户100以自然的姿势手持示教盒4的状态下,示教盒4的纵向、即用箭头标记A1、A2表示的上下方向与机器人22的指尖的垂直方向、即上下方向一致。因此,用户容易将沿触摸面板17画面上的纵向进行的操作与基于第二轴J22的驱动而使机器人22的指尖沿垂直方向进行的移动相关联地识别出来。
在组合B中,沿横向(第一方向)进行的拖拽操作与第四轴J24相对应,沿纵向(第二方向)进行的拖拽操作与第三轴J23相对应。即,在对第二按钮172进行操作从而选择了组合B的状态下,当检测出沿横向进行的拖拽操作时,动作指令生成部16生成用于使第四轴J24驱动的动作指令。此外,在对第二按钮172进行操作从而选择了组合B的状态下,当检测出沿纵向进行的拖拽操作时,动作指令生成部16生成用于使第三轴J23驱动的动作指令。由此,在选择了组合B的状态下,用户通过沿横向进行拖拽操作,能够使第四轴J24驱动,而通过沿纵向进行拖拽操作,能够使第三轴J23驱动。
在这种情况下,当用户对触摸面板17进行向右方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向右方向移动,向正(+)方向驱动第四轴J24。此外,当用户对触摸面板17进行向左方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向左方向移动,向负(-)方向驱动第四轴J24。此外,当用户对触摸面板17进行向上方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向上方向、即远离动作基准面P的方向移动,向正(+)方向驱动第三轴J23。另一方面,当用户对触摸面板17进行向下方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向下方向、即接近动作基准面P的方向移动,向负(-)方向驱动第三轴J23。
可以认为,用户从横向的拖拽操作容易联想到第四轴J24的驱动,而从纵向的拖拽操作容易联想到第三轴J23的驱动。从横向的拖拽操作联想到第四轴J24的驱动的理由例如如下所述。即,在六轴垂直多关节机器人22中,第四轴J24是设置在第一上臂28的顶端部的旋转轴,并且是朝着与第一上臂28延伸的方向相同的方向延伸的旋转轴。在手动操作机器人22时的基本姿势下,该第四轴J24向更加接近水平的方向延伸。因此,当第四轴J24驱动时,机器人22的指尖以第四轴J24为中心沿水平方向移动。
此时,用户将看到机器人22的指尖沿着水平横向移动。因此,用户的操作方向(横向)与机器人22的指尖的移动方向一致。由此,用户容易将对触摸面板17进行的横向操作与基于第四轴J24的驱动而进行的指尖的移动动作相关联地识别出来。因此,用户容易将机器人22的指尖的移动方向与自身的拖拽操作的操作方向相关联地识别出来。此外,从纵向的拖拽操作联想到第二轴J22的驱动的理由与上述第二轴J22的情况相同。
在组合C中,沿横向(第一方向)进行的拖拽操作与第六轴J26相对应,沿纵向(第二方向)进行的拖拽操作与第五轴J25相对应。即,在对第三按钮173进行操作从而选择了组合C的状态下,当检测出沿横向进行的拖拽操作时,动作指令生成部16生成用于使第六轴J26驱动的动作指令。此外,在对第三按钮173进行操作从而选择了组合C的状态下,当检测出沿纵向进行的拖拽操作时,动作指令生成部16生成用于使第五轴J25驱动的动作指令。由此,在选择组合了C的状态下,用户通过沿横向进行拖拽操作,能够使第六轴J26驱动,而通过沿纵向进行拖拽操作,能够使第五轴J25驱动。
在这种情况下,当用户对触摸面板17进行向右方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向右方向旋转,向正(+)方向驱动第六轴J26。另一方面,当用户对触摸面板17进行向左方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向左方向旋转,向负(-)方向驱动第六轴J26。此外,当用户对触摸面板17进行向上方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向上方向、即远离动作基准面P的方向移动,向正(+)方向驱动第五轴J25。另一方面,当用户对触摸面板17进行向下方向拖拽的拖拽操作时,动作指令生成部16为了使机器人22的指尖向下方向、即接近动作基准面P的方向移动,向负(-)方向移动第五轴J25。
可以认为,用户从横向的拖拽操作容易联想到第六轴J26的驱动。其理由例如如下所述。即,第六轴J26用于使机器人22的指尖旋转。在水平方向上观察机器人22的指尖时,将看到通过机器人22的指尖旋转使机器人22的指尖的某一点沿水平方向直线移动。因此,可以认为,将使用户从对触摸面板17进行的横向操作联想到机器人22的指尖的旋转动作。因此,用户容易将对触摸面板17进行的横向操作与机器人22的指尖的旋转动作相关联地识别出来。
此外,从纵向的拖拽操作联想到第五轴J25的驱动的理由例如如下所述。即,第五轴J25是设置在第二上臂29的顶端部的旋转轴,并且是沿水平方向延伸的旋转轴。即,第五轴J25是用于使机器人22的指尖相对于动作基准面P沿垂直方向移动的驱动轴,即用于使机器人22的指尖相对于重力方向沿上下方向移动的驱动轴。因此,与上述第二轴J22以及第三轴J23的情况同样地,在用户把持示教盒4的状态下,示教盒4的纵向(上下方向)与机器人22的指尖的垂直方向(上下方向)一致。因此,用户容易将沿触摸面板17画面上的纵向进行的操作与基于第五轴J25的驱动而使机器人22的指尖沿垂直方向进行的移动相关联地识别出来。
另外,动作指令生成部16进行与在第一实施方式的图6中说明的控制内容同等的控制。此时,动作指令生成部16在图6的步骤S14~S16所示的各组合用处理中,进行与图7所示的内容同等的控制。即,在本实施方式的组合A用处理中,动作指令生成部16在步骤S23中生成用于第一轴J21的动作指令,在步骤S25中生成用于第二轴J22的动作指令。此外,在组合B用处理中,动作指令生成部16在步骤S23中生成用于第四轴J24的动作指令,在步骤S25中生成用于第三轴J23的动作指令。并且,在组合C用处理中,动作指令生成部16在步骤S23中生成用于第六轴J26的动作指令,在步骤S25中生成用于第五轴J25的动作指令。
由此,六轴垂直多关节机器人22也能获得与上述各实施方式同样的作用效果。此外,在本实施方式中,作为操作对象的机器人22具有:基座25,设置在工作台P(设置面)上;肩部26,设置成通过第一轴J21可相对于基座25旋转;下臂27,设置成通过第二轴J22可相对于肩部26旋转;第一上臂28,设置成通过第三轴J23可相对于下臂27旋转;第二上臂29,设置成通过第四轴J24可相对于第一上臂28旋转;手腕30,设置成通过第五轴J25可相对于第二上臂29旋转;以及法兰31,设置成通过第六轴J26可相对于手腕30旋转。
并且,驱动轴的组合包括如下组合中的至少一个组合:组合A,由与横向(第一方向)的拖拽操作相对应的第一轴J21以及与纵向(第二方向)的拖拽操作相对应的第二轴J22构成;组合B,由与横向(第一方向)的拖拽操作相对应的第四轴J24以及与纵向(第二方向)的拖拽操作相对应的第三轴J23构成;以及组合C,由与横向(第一方向)的拖拽操作相对应的第六轴J26以及与纵向(第二方向)的拖拽操作相对应的第五轴J25构成。
此外,在构成组合A的第一轴J21和第二轴J22分别被驱动时,机器人22的指尖的移动量接近。此外,在构成组合B的第四轴J24和第三轴J23分别被驱动时,机器人22的指尖的移动量接近。并且,在构成组合C的第六轴J26和第五轴J25分别被驱动时,机器人22的指尖的移动量接近。这样,组合A~C由分别被驱动时的移动量接近的驱动轴构成。由此,用户能够根据机器人22的指尖的活动大小,相应地选择驱动轴的组合,因此,使操作性得到提高。此外,如在第二实施方式中所说明的那样,例如即使在用户错误地输入了斜方向的拖拽操作时,也能避免发生严重违反用户预想的动作,其结果是,使安全性得到进一步提高。
(第四实施方式)
接下来,参照图14以及图15,对第四实施方式进行说明。本实施方式涉及确定进行了拖拽操作时的机器人2、22的移动速度以及移动量,其中,该拖拽操作作为所谓的手势操作(基于操作方向以及手指的移动量的组合而进行的操作)。在本实施方式中,动作指令生成部16能够进行操作判断处理、速度计算处理以及动作指令生成处理。操作判断处理是如下的处理:当由触摸操作检测部15检测出的触摸操作为拖拽操作时,对该拖拽操作的手指的移动量进行判断。速度计算处理是如下的处理:根据在操作判断处理中判断出的手指的移动量,计算出机器人2、22的移动速度。动作指令生成处理是如下的处理:根据在速度计算处理中计算出的移动速度,生成用于使机器人2、22移动的动作指令。
动作指令生成部16能够进行移动量计算处理,所述移动量计算处理根据拖拽操作的手指的移动量计算出机器人2、22的移动距离。例如,在图14中,用地点Sp表示拖拽操作的起始地点,用地点Ep表示拖拽操作的结束地点。拖拽操作的结束是用户的手指离开触摸面板17之时。此时,拖拽操作的手指的移动量是从起始地点Sp至结束地点Ep的距离L。控制部14根据拖拽操作的移动距离L,计算出机器人2、22的移动距离Lr。此外,控制部14根据移动距离L除以拖拽操作的输入时间而得到的值、即拖拽操作中与手指的移动相关的平均速度V,计算出机器人2、22的平均速度Vr。
为了实现上述结构,控制部14执行如图15所示的内容的控制。另外,在以下的说明中,由控制部14进行的处理包括由触摸操作检测部15以及动作指令生成部16进行的处理。此外,图14中示出的触摸面板17上的X-Y坐标系与机器人2、22的坐标系可以不一致。
当控制部14检测出拖拽操作从而开始进行图15所示的控制时,在步骤S51、S52中对拖拽操作的起始地点Sp(Xs、Ys)以及结束地点Ep(Xe、Ye)进行检测。接下来,控制部14在步骤S53中对拖拽操作所需的时间、即拖拽操作的输入时间Ti进行检测。接下来,控制部14在步骤S54中根据起始地点Sp(Xs、Ys)以及结束地点Ep(Xe、Ye),计算出拖拽操作的手指的移动量L、拖拽操作的手指的平均速度V以及拖拽操作的操作方向。该步骤S54中包括操作判断处理。
然后,在步骤S55中,控制部14根据在步骤S54中计算出的拖拽操作的移动量L、平均速度V以及操作方向,计算出机器人2、22的移动量Lr、平均速度Vr以及移动方向。该步骤S55中包括速度计算处理。然后,在步骤S56中,控制部14根据移动量Lr、平均速度Vr以及移动方向,生成动作指令(动作指令生成处理)。然后,该动作指令被发送至控制器3,控制器3根据该动作指令控制机器人2、22的动作。由此,控制部14结束一系列的处理。
在本实施方式中,控制部14能够进行速度计算处理,所述速度计算处理根据拖拽操作的手指的移动量L计算出机器人2、22的移动速度Vr。由此,使用户拖拽操作的手指的移动量L与机器人2、22的移动速度Vr具有相关性。因此,用户通过调整拖拽操作的手指的移动量L,能够调整机器人的移动速度Vr。因此,用户能够进行直观的操作,并使操作性得到提高。其结果是,能够使安全性得到提高,并且能够减少示教所需的时间。
此外,控制部14能够进行移动量计算处理,所述移动量计算处理根据拖拽操作的手指的移动量L计算出机器人2、22的移动距离Lr。由此,用户通过调整拖拽操作的手指的移动量L,能够调整机器人2、22的移动量Lr即移动距离Lr。进一步,速度计算处理是如下的处理:根据拖拽操作的手指的移动量L除以输入拖拽操作所需的时间而得到的值,确定机器人2、22的移动速度Vr。由此,用户通过调整输入拖拽操作所需的时间,能够调整机器人2、22的移动速度Vr。
因此,用户在输入拖拽操作时,通过调整该拖拽操作的移动量L和输入时间Ti,能够对机器人2、22的移动速度Vr和移动量Lr两者进行调整。即,用户通过一次拖拽操作,能够对机器人2、22的移动速度Vr和移动量Lr两者进行调整。由此,用户能够进行直观的操作。此外,由此用户无需为了确定机器人2、22的移动速度Vr和移动量Lr而进行多个操作,例如用于确定机器人2、22的移动速度Vr的操作和用于确定机器人2、22的移动量Lr的操作。因此,操作变得简单,并使操作性得到提高。其结果是,能够使安全性得到提高,并且能够减少示教所需的时间。
另外,位于图14的显示部12中的通过圆表示的起始地点Sp、结束地点Ep以及白色箭头标记是为了方便说明拖拽操作的动作而记载的内容,并不是操作时实际显示在显示部12上的内容。但是,示教盒4也可以与拖拽操作相伴地使起始地点Sp、结束地点Ep以及白色箭头标记显示在显示部12上。由此,有助于用户确认自身的操作内容。
(第五实施方式)
接下来,参照图16以及图17,对第五实施方式进行说明。本实施方式的结构用于相对于操作输入几乎实时地执行机器人2、22的动作。即,在上述第四实施方式中,结束拖拽操作的输入之后执行机器人2、22的动作。因此,机器人2、22的动作是在拖拽操作结束之后进行的。因此,在由用户进行的拖拽操作输入与机器人2、22的实际动作之间会产生时间差。另一方面,在本实施方式中,即使在拖拽操作结束之前,控制部14也适当地生成机器人2、22的动作指令。因此,相对于由用户进行的拖拽操作输入,几乎实时地进行机器人2、22的实际动作。
具体而言,在进行拖拽操作的期间,控制部14能够以固定的周期S进行操作判断处理、速度计算处理以及动作指令生成处理。进行拖拽操作的期间是指,从用户的手指触碰到触摸面板17开始拖拽操作开始至用户的手指离开触摸面板17为止的期间。在这种情况下,如图16所示,拖拽操作的起始地点Sp与结束地点Ep之间的距离为距离L,进行该距离L的拖拽操作的期间为进行拖拽操作的期间。
为了实现上述结构,控制部14执行如图17所示的内容的控制。另外,在以下的说明中,由控制部14进行的处理包括由触摸操作检测部15以及动作指令生成部16进行的处理。控制部14在对拖拽操作的输入进行检测期间,执行如图17所示的处理内容。当控制部14开始进行如图17所示的控制时,在步骤S61中对拖拽操作的当前的手指的地点P1(X1、Y1)进行检测。接下来,控制部14在步骤S62中待机(步骤S62的判断结果为“否”),直到经过固定的时间S为止。当经过了时间S时(步骤S62的判断结果为“是”),控制部14在步骤S63中对拖拽操作的当前的手指的地点P2(X2、Y2)进行检测。
接下来,控制部14在步骤S64中根据地点P1、P2以及时间S,计算出拖拽操作的操作方向、每个固定时间S中拖拽操作的移动量dL以及移动速度dV。该步骤S64中包括操作判断处理。接下来,在步骤S65中,控制部14根据在步骤S64中计算出的拖拽操作的移动量dL、移动速度dV以及操作方向,计算出机器人2、22的移动方向、每个固定时间S的移动量dLr以及移动速度dVr。该步骤S64中包括速度计算处理。
接下来,在步骤S66中,控制部14根据每个固定时间S的移动量dLr、平均速度dVr以及移动方向,生成动作指令(动作指令处理)。然后,该动作指令被发送至控制器3,控制器3根据该动作指令控制机器人2、22的动作。然后,控制部14在步骤S67中判断拖拽操作的输入是否已结束。控制部14在判断为拖拽操作的输入未结束时(步骤S61的判断结果为“否”),迁移至步骤S61,并反复执行步骤S61至步骤S67。另一方面,控制部14在判断为拖拽操作的输入已结束时(步骤S61的判断结果为“是”),结束一系列的处理。由此,控制部14在进行拖拽操作的期间,以固定时间S即固定周期反复进行操作判断处理、速度计算处理以及动作指令生成处理。
根据本实施方式,控制部14不等用户的拖拽操作结束就能够生成动作指令。因此,对于来自用户的拖拽操作,动作指令生成部16能够几乎实时地生成用于使机器人2、22动作的动作指令。因此,能够极力减少由用户进行的拖拽操作输入与机器人2、22的实际动作之间的时间差。因此,用户能够进行更加直观的操作,其结果是,能够提高安全性,并且能够缩短示教时间。
(第六实施方式)
接下来,参照图18至图20,对第六实施方式进行说明。本实施方式涉及确定进行了拖拽操作时的拖拽操作的操作量与机器人2、22的移动量之间的倍率,其中,该拖拽操作作为所谓的手势操作。另外,在图18中,将拖拽操作的起始地点Sp至结束地点Ep为止的拖拽操作的操作量设为L。
示教盒4为了使机器人2、22进行比所输入的拖拽操作的操作量更精密的精密动作,在拖拽操作的操作量与机器人2、22的移动量之间设定倍率。该倍率通过机器人2、22的移动量对拖拽操作的操作量之比表示。例如,将倍率设定为0.1倍时,用户通过进行1mm的拖拽操作,能够使机器人2、22移动0.1mm。但是,仅仅单纯地设定固定的倍率,会产生如下的问题。即,例如,有时既想进行0.1mm单位的细微动作(微动)还想进行数mm至数十mm单位的较大的动作(粗动)。但是,例如将倍率设定为0.1倍时,即使进行200mm(相当于10英寸画面的长边的长度)的拖拽操作,也只能使机器人仅仅移动20mm。因此,例如,如果用户想让机器人进行1000mm的移动,就要重复进行50次200mm的拖拽操作,繁琐且操作性不好。
因此,在本实施方式中,动作指令生成部16能够进行操作判断处理以及移动量确定处理。操作判断处理对由触摸操作检测部15检测出的拖拽操作的手指的移动量进行判断。如图18所示,从起始地点Sp开始到拖拽操作通过第一区间L1为止,移动量确定处理将倍率设定为第一倍率,在拖拽操作通过第一区间L1之后,将倍率设定为大于第一倍率的值,从而确定机器人2、22的移动量。倍率用于扩大或缩小在操作判断处理中判断出的拖拽操作的手指的移动量从而确定机器人2、22的移动量。此外,第一倍率是小于1的固定值。
此外,在本实施方式中,从拖拽操作的手指的移动通过第一区间L1开始到通过第二区间L2为止,移动量确定处理将倍率设定为第二倍率,并在拖拽操作的手指的移动通过第二区间L2之后,将倍率设定为作为固定值的第三倍率,从而确定机器人的移动量。第二倍率为,在第一倍率至第三倍率的范围内根据拖拽操作的手指的移动量而连续增加的值。
具体而言,如图18所示,第一区间L1是从拖拽操作的起始地点Sp起始的规定长度(例如50mm)的区间。即,在这种情况下,如图19所示,第一区间L1为从操作量0mm(起始地点Sp)至操作量50mm(第一区间L1的终点L1p)的区间。第一区间L1的长度固定不变,与拖拽操作的操作量L无关。对在第一区间L1内进行的拖拽操作设定第一倍率f1。第一倍率f1为小于1的固定值,例如如图19的(1)所示,为0.1倍(f1=0.1)。
第二区间L2是从第一区间L1的终点L1p起始的规定长度(例如100mm)的区间。即,在这种情况下,如图19所示,第二区间L2为从操作量50mm(第一区间L1的终点L1p)至操作量150mm(第二区间L2的终点L2p)的区间。第二区间L2的长度固定不变,与拖拽操作的操作量L无关。对在第二区间L2内进行的拖拽操作设定第二倍率f2。第二倍率f2是大于第一倍率f1且小于第三倍率f3的值。即,第二倍率f2为,在第一倍率f1至第三倍率f3的范围内根据拖拽操作的手指的移动量、即从起始地点Sp起始的距离L而连续增加的变动值。
第二倍率f2可用如下的数学式1表达。另外,在本实施方式中,第二倍率f2在第一倍率f1至第三倍率f3的范围内成比例地增加,但是,并不限定于此。例如,第二倍率f2在第一倍率f1至第三倍率f3的范围内可以以二次函数的方式增加,也可以以指数函数的方式增加。
[数学式1]
f2=0.099×(L-50)+0.1
第三区间是第二区间L2的终点L2p以后的区间。即,在这种情况下,第三区间L3为操作量150mm(第二区间的终点L2p)以后的区间。第三区间L3的长度根据拖拽操作的操作量L变化。即,第三区间L3的长度为拖拽操作的操作量L减去第一区间L1以及第二区间L2的长度而得到的值。对在第三区间L3内进行的拖拽操作设定第三倍率f3。第三倍率f3是大于第一倍率以及第二倍率的固定值。在这种情况下,例如如图19的(1)所示,第三倍率f3被设定为大于1的10倍(f3=10)。
对于在第一区间L1内进行的拖拽操作,动作指令生成部16将其操作量L乘以第一倍率f1而得到的值设定为机器人2、22的移动量。此外,对于在第二区间L2内进行的拖拽操作,动作指令生成部16将其操作量L乘以第二倍率f2而得到的值设定为机器人2、22的移动量。此外,对于在第三区间L3内进行的拖拽操作,动作指令生成部16将其操作量L乘以第三倍率f3而得到的值设定为机器人2、22的移动量。例如,用户想让机器人2、22进行0.1mm单位的细微动作(微动)时,在第一区间L1的范围内反复进行拖拽操作。另一方面,例如,用户想让机器人2、22进行较大的动作(粗动)时,超出第一区间L1以及第二区间L2,至第三区间L3进行拖拽操作。
与拖拽操作的操作量L相对的机器人2、22的移动量的变化如图19的(2)所示。例如,当将拖拽操作的操作量L设为200mm时,与在第一区间L1中进行的操作相对地,机器人2、22的移动量为0.1×50=5mm。此外,与在第二区间L2中进行的操作相对地,机器人2、22的移动量为((10-0.1)×100/2)+(0.1×100)=505mm。此外,与在第三区间L3中进行的操作相对地,机器人2、22的移动量为10×50=500mm。即,在第一区间L1、第二区间L2以及第三区间L3全部区间中的机器人2、22的移动量为1010mm。因此,用户通过200mm的拖拽操作,能够使机器人2、22移动1010mm。
在这种情况下,机器人2、22的移动量在各区间中如下变化。即,相对于在第一区间L1(操作量0mm至50mm的区间)中进行的操作,机器人2、22的移动量以一次函数的方式增加。此外,相对于在第二区间L2(操作量50mm至150mm的区间)中进行的操作,机器人2、22的移动量以二次函数的方式增加。此外,相对于在第三区间L3(操作量150mm以上的区间)中进行的操作,机器人2、22的移动量以一次函数的方式增加。
由此,用户通过在第一区间L1内进行拖拽操作,能够使机器人2、22以小于1的固定倍率即第一倍率f1移动。即,用户通过在第一区间L1内反复进行拖拽操作,能够使机器人2、22微动。此外,用户通过超出第一区间L1进行拖拽操作,对于超出第一区间L1的部分,能够使机器人2、22以大于第一倍率的倍率移动。即,用户通过超出第一区间L1进行操作,能够使机器人2、22粗动。
这样,用户通过一次拖拽操作,能够以不同的倍率使机器人2、22移动。由此,例如通过一次拖拽操作,能够实现使机器人2、22微动和粗动两种动作。因此,用户无需进行用于切换机器人2、22的微动和粗动的特别操作,就能够实现微动和粗动两者。由此,操作变得简单,并使操作性得到提高,其结果是,使安全性得到提高,并且能够减少示教所需的时间。
此外,根据本实施方式,移动量确定处理为如下的处理:从拖拽操作的手指的移动通过第一区间L1开始到通过第二区间L2为止,将倍率设定为第二倍率f2,并在拖拽操作的手指的移动通过第二区间L2之后,将倍率设定为作为固定值的第三倍率f3,从而确定机器人2、22的移动量。由此,用户通过在第一区间L1内反复进行拖拽操作,能够使机器人以小于1的第一倍率f1微动。此外,用户通过超出第一区间L1进行拖拽操作,能够使机器人2、22以大于第一倍率f1的第二倍率f2或第三倍率f3粗动。
进一步,第二倍率f2为,在第一倍率f1至第三倍率f3的范围内根据拖拽操作的手指的移动量L而连续增加的值。由此,位于基于第一倍率f1进行的微动与基于第三倍率f3进行的粗动之间的倍率即第二倍率f2,在第一倍率f1至第三倍率f3的范围内根据拖拽操作的手指的移动量L连续增加。即,作为固定值的第一倍率f1与第三倍率f3之间,通过连续变化的第二倍率f2衔接。因此,用于确定与用户的拖拽操作的操作量L对应的机器人2、22的移动量的倍率,从第一倍率f1开始,经过顺序变化的第二倍率f2后,切换至第三倍率f3。由此,能够防止用于确定机器人2、22的移动量的倍率从第一倍率f1急剧地切换至第三倍率f3。即,能够防止机器人2、22的移动从微动向粗动急剧变化。因此,能够防止因用户无意识地使倍率急剧变化而造成机器人2、22的速度急剧变化(急动)。其结果是,使安全性得到进一步提高。
另外,如图20的(1)和(2)所示,可以将第一倍率f1设为0.01倍,将第三倍率f3为1.0倍,并将第二倍率f2设为在第一倍率f1=0.01至第三倍率f3=1.0的范围内由如下数学式2表达的值。由此,能够联合使用0.01倍以及0.1倍的倍率,这样能够容易地进行更加细致的动作。
[数学式2]
f2=0.0099×(L-50)+0.01
(其他实施方式)
另外,本发明并不限于上述文字以及附图中记载的各实施方式,能够进行如下变形或扩展。
在进行机器人的手动操作时,有时也需要同时混合执行多个动作。为了应对这样的情况,只要模糊划分用于进行各动作的操作即可。即,在这种情况下,在上述各实施方式中,不进行为了明确区分用于执行各动作的操作而实施的设计即可。
在上述几个实施方式中,对将本发明的机器人操作装置适用在机器人系统所使用的专用示教盒4中的结构进行了说明,但是,可以不限定于此。例如,通过在通用的平板型终端(平板电脑)或智能手机(多功能手机)等中安装专用的应用(机器人操作程序),也能够实现与上述各实施方式中说明的功能同等的功能。
多关节机器人不仅包括上述各实施方式中说明的四轴水平多关节型机器人2以及六轴垂直多关节型机器人22,还包括例如具有多个驱动轴的直交型机器人。在这种情况下,驱动轴不限于机械的旋转轴,例如还包括通过线性电机驱动的方式。
本发明的机器人操作装置并不仅限于用在四轴水平多关节型机器人2以及六轴垂直多关节型机器人22中,能够在手动操作各种机器人时使用。
Claims (11)
1.一种机器人操作装置,具备:
触摸面板,用于从用户处接受触摸操作的输入;
触摸操作检测部,能够检测向所述触摸面板输入的平面方向的触摸操作;
动作指令生成部,根据所述触摸操作检测部的检测结果,生成用于使具有多个驱动轴的多关节型机器人动作的动作指令;以及
选择操作检测部,与所述触摸面板一体设置或者独立于所述触摸面板设置,并能够检测来自用户的选择操作,
所述动作指令生成部能够进行如下处理:
选择处理,根据所述选择操作检测部的检测结果,从预先设定的、包括所述机器人的第一驱动轴以及所述机器人的第二驱动轴在内的所述驱动轴的组合中,选择作为操作对象的一个组合,其中,所述机器人的第一驱动轴对应于沿第一方向对所述触摸面板进行的拖拽操作,所述机器人的第二驱动轴对应于沿和所述第一方向交叉的第二方向进行的拖拽操作;
操作判断处理,当由所述触摸操作检测部检测出的触摸操作为拖拽操作时,对该拖拽操作为所述第一方向与所述第二方向中的哪个方向进行判断;
第一动作指令生成处理,当所述拖拽操作为所述第一方向时,生成第一动作指令,所述第一动作指令用于驱动在所述选择处理中选择的所述多个驱动轴的组合中与沿所述第一方向的拖拽操作相对应的所述机器人的第一驱动轴;以及
第二动作指令生成处理,当所述拖拽操作为所述第二方向时,生成第二动作指令,所述第二动作指令用于驱动在所述选择处理中确定的所述多个驱动轴的组合中与沿所述第二方向的拖拽操作相对应的所述机器人的第二驱动轴;
所述第一方向为所述触摸面板上的横向,
所述第二方向为所述触摸面板上的纵向,
与沿所述第一方向的拖拽操作相对应的所述机器人的第一驱动轴为,用于使所述机器人的指尖相对于所述机器人的动作基准面沿水平方向移动的驱动轴,
与沿所述第二方向的拖拽操作相对应的所述机器人的第二驱动轴为,用于使所述机器人的指尖相对于所述机器人的动作基准面沿垂直方向移动的驱动轴,
所述机器人具有:
基座,设置在设置面上;
肩部,设置成通过第一轴可相对于所述基座旋转;
下臂,设置成通过第二轴可相对于所述肩部旋转;
第一上臂,设置成通过第三轴可相对于所述下臂旋转;
第二上臂,设置成通过第四轴可相对于所述第一上臂旋转;
手腕,设置成通过第五轴可相对于所述第二上臂旋转;以及
法兰,设置成通过第六轴可相对于所述手腕旋转,
所述多个驱动轴的组合包括如下组合中的至少一个组合:驱动轴的第一组合,由与所述第一方向的拖拽操作相对应的所述第一轴以及与所述第二方向的拖拽操作相对应的所述第二轴构成;驱动轴的第二组合,由与所述第一方向的拖拽操作相对应的所述第四轴以及与所述第二方向的拖拽操作相对应的所述第三轴构成;以及驱动轴的第三组合,由与所述第一方向的拖拽操作相对应的所述第六轴以及与所述第二方向的拖拽操作相对应的所述第五轴构成。
2.根据权利要求1所述的机器人操作装置,其特征在于,
所述选择操作检测部检测对显示在所述触摸面板上的按钮或所述触摸面板之外的按钮所进行的操作。
3.根据权利要求2所述的机器人操作装置,其特征在于,
具备设置有所述触摸面板并且可由用户手持的壳体,
所述选择操作检测部检测对显示在所述触摸面板上的多个按钮进行的操作,
多个所述按钮配置在与把持部邻接的规定范围的区域内,所述把持部是假定用户手持所述壳体时所把持的部位,
所述触摸操作检测部从检测对象中排除对所述触摸面板中的所述规定范围的区域进行的触摸操作。
4.根据权利要求1所述的机器人操作装置,其特征在于,
所述操作判断处理包括如下处理:当由所述触摸操作检测部检测出的触摸操作为拖拽操作时,对该拖拽操作的手指的移动量进行判断,
所述动作指令生成部能够进行速度计算处理,所述速度计算处理根据所述手指的移动量计算出所述机器人的移动速度。
5.根据权利要求4所述的机器人操作装置,其特征在于,
所述动作指令生成部能够进行移动量计算处理,所述移动量计算处理根据所述手指的移动量计算出所述机器人的移动距离,
速度计算处理是如下的处理:根据所述手指的移动量除以输入所述拖拽操作所需的时间而得到的值,确定所述机器人的移动速度。
6.根据权利要求5所述的机器人操作装置,其特征在于,
所述操作判断处理包括:对由所述触摸操作检测部检测出的拖拽操作的手指的移动量进行判断的处理,
所述动作指令生成部能够进行移动量确定处理,在所述移动量确定处理中,对用于扩大或缩小在所述操作判断处理中判断出的拖拽操作的手指的移动量从而确定所述机器人的移动量时所使用的倍率进行如下设定,以确定所述机器人的移动量:即,从操作起始点开始到所述拖拽操作通过第一区间为止,将所述倍率设定为小于1的固定值即第一倍率,在所述拖拽操作通过所述第一区间之后,将所述倍率设定为大于所述第一倍率的值。
7.根据权利要求6所述的机器人操作装置,其特征在于,
所述移动量确定处理是如下的处理:从所述拖拽操作通过所述第一区间开始到通过第二区间为止,将所述倍率设定为第二倍率,并在所述拖拽操作通过所述第二区间之后,将所述倍率设定为作为固定值的第三倍率,从而确定所述机器人的移动量,
所述第二倍率为,在所述第一倍率至所述第三倍率的范围内根据所述拖拽操作的操作量而连续增加的值。
8.根据权利要求1所述的机器人操作装置,其特征在于,
所述操作判断处理包括如下处理:当由所述触摸操作检测部检测出的触摸操作为拖拽操作时,对该拖拽操作的手指的移动量进行判断,
所述动作指令生成部能够进行速度计算处理,所述速度计算处理根据所述手指的移动量计算出所述机器人的移动速度。
9.根据权利要求1所述的机器人操作装置,其特征在于,
所述操作判断处理包括:对由所述触摸操作检测部检测出的拖拽操作的手指的移动量进行判断的处理,
所述动作指令生成部能够进行移动量确定处理,在所述移动量确定处理中,对用于扩大或缩小在所述操作判断处理中判断出的拖拽操作的手指的移动量从而确定所述机器人的移动量时所使用的倍率进行如下设定,以确定所述机器人的移动量:即,从操作起始点开始到所述拖拽操作通过第一区间为止,将所述倍率设定为小于1的固定值即第一倍率,在所述拖拽操作通过所述第一区间之后,将所述倍率设定为大于所述第一倍率的值。
10.一种机器人系统,其特征在于,具备:
四轴水平多关节型机器人,具有四个驱动轴;
控制器,用于控制所述机器人的动作;以及
机器人操作装置,
所述机器人操作装置具备:
触摸面板,用于从用户处接受触摸操作的输入;
触摸操作检测部,用于检测向所述触摸面板输入的平面方向的触摸操作;
动作指令生成部,根据所述触摸操作检测部的检测结果,生成用于使所述机器人动作的动作指令;以及
选择操作检测部,与所述触摸面板一体设置或者独立于所述触摸面板设置,用于检测来自用户的选择操作,
所述动作指令生成部进行如下处理:
选择处理,根据所述选择操作检测部的检测结果,从预先设定的、包括所述机器人的第一驱动轴以及所述机器人的第二驱动轴在内的所述四个驱动轴的组合中,选择作为操作对象的一个组合,其中,所述机器人的第一驱动轴对应于沿第一方向对所述触摸面板进行的拖拽操作,所述机器人的第二驱动轴对应于沿和所述第一方向交叉的第二方向进行的拖拽操作;
操作判断处理,当由所述触摸操作检测部检测出的触摸操作为拖拽操作时,对该拖拽操作为所述第一方向与所述第二方向中的哪个方向进行判断;
第一动作指令生成处理,当所述拖拽操作为所述第一方向时,生成第一动作指令,所述第一动作指令用于驱动在所述选择处理中选择的所述四个驱动轴的组合中与沿所述第一方向的拖拽操作相对应的所述第一驱动轴;以及
第二动作指令生成处理,当所述拖拽操作为所述第二方向时,生成第二动作指令,所述第二动作指令用于驱动在所述选择处理中确定的所述驱动轴的组合中与沿所述第二方向的拖拽操作相对应的所述第二驱动轴;
所述第一方向为所述触摸面板上的横向,
所述第二方向为所述触摸面板上的纵向,
与沿所述第一方向的拖拽操作相对应的所述机器人的第一驱动轴为,用于使所述机器人的指尖相对于所述机器人的动作基准面沿水平方向移动的驱动轴,
与沿所述第二方向的拖拽操作相对应的所述机器人的第二驱动轴为,用于使所述机器人的指尖相对于所述机器人的动作基准面沿垂直方向移动的驱动轴,
所述机器人具有:
基座,设置在设置面上;
第一臂,设置成通过第一轴可相对于所述基座旋转;
第二臂,设置成通过第二轴可相对于所述第一臂旋转;以及
传动轴,设置成通过第三轴可相对于所述第二臂上下活动,并且设置成通过第四轴可相对于所述第二臂旋转,
所述四个驱动轴的组合包括:
(1)由与所述第一方向的拖拽操作相对应的所述第一轴以及与所述第二方向的拖拽操作相对应的所述第三轴构成的驱动轴的组合,由与所述第一方向的拖拽操作相对应的所述第二轴构成的驱动轴的组合,以及由与所述第一方向的拖拽操作相对应的所述第四轴构成的驱动轴的组合中的至少一个组合;
或者(2)由与所述第一方向的拖拽操作相对应的所述第一轴构成的驱动轴的组合,由与所述第一方向的拖拽操作相对应的所述第二轴构成的驱动轴的组合,以及由与所述第一方向的拖拽操作相对应的所述第四轴以及与所述第二方向的拖拽操作相对应的所述第三轴构成的驱动轴的组合中的至少一个组合。
11.一种机器人系统,其特征在于,具备:
六轴垂直多关节型机器人,具有六个驱动轴;
控制器,用于控制所述机器人的动作;以及
机器人操作装置,
所述机器人操作装置具备:
触摸面板,用于从用户处接受触摸操作的输入;
触摸操作检测部,用于检测向所述触摸面板输入的平面方向的触摸操作;
动作指令生成部,根据所述触摸操作检测部的检测结果,生成用于使所述机器人动作的动作指令;以及
选择操作检测部,与所述触摸面板一体设置或者独立于所述触摸面板设置,用于检测来自用户的选择操作,
所述动作指令生成部进行如下处理:
选择处理,根据所述选择操作检测部的检测结果,从预先设定的、包括所述机器人的第一驱动轴以及所述机器人的第二驱动轴在内的所述六个驱动轴的组合中,选择作为操作对象的一个组合,其中,所述机器人的第一驱动轴对应于沿第一方向对所述触摸面板进行的拖拽操作,所述机器人的第二驱动轴对应于沿和所述第一方向交叉的第二方向进行的拖拽操作;
操作判断处理,当由所述触摸操作检测部检测出的触摸操作为拖拽操作时,对该拖拽操作为所述第一方向与所述第二方向中的哪个方向进行判断;
第一动作指令生成处理,当所述拖拽操作为所述第一方向时,生成第一动作指令,所述第一动作指令用于驱动在所述选择处理中选择的所述六个驱动轴的组合中与沿所述第一方向的拖拽操作相对应的所述第一驱动轴;以及
第二动作指令生成处理,当所述拖拽操作为所述第二方向时,生成第二动作指令,所述第二动作指令用于驱动在所述选择处理中确定的所述驱动轴的组合中与沿所述第二方向的拖拽操作相对应的所述第二驱动轴;
所述第一方向为所述触摸面板上的横向,
所述第二方向为所述触摸面板上的纵向,
与沿所述第一方向的拖拽操作相对应的所述机器人的第一驱动轴为,用于使所述机器人的指尖相对于所述机器人的动作基准面沿水平方向移动的驱动轴,
与沿所述第二方向的拖拽操作相对应的所述机器人的第二驱动轴为,用于使所述机器人的指尖相对于所述机器人的动作基准面沿垂直方向移动的驱动轴,
所述机器人具有:
基座,设置在设置面上;
肩部,设置成通过第一轴可相对于所述基座旋转;
下臂,设置成通过第二轴可相对于所述肩部旋转;
第一上臂,设置成通过第三轴可相对于所述下臂旋转;
第二上臂,设置成通过第四轴可相对于所述第一上臂旋转;
手腕,设置成通过第五轴可相对于所述第二上臂旋转;以及
法兰,设置成通过第六轴可相对于所述手腕旋转,
所述六个驱动轴的组合包括如下组合中的至少一个组合:驱动轴的第一组合,由与所述第一方向的拖拽操作相对应的所述第一轴以及与所述第二方向的拖拽操作相对应的所述第二轴构成;驱动轴的第二组合,由与所述第一方向的拖拽操作相对应的所述第四轴以及与所述第二方向的拖拽操作相对应的所述第三轴构成;以及驱动轴的第三组合,由与所述第一方向的拖拽操作相对应的所述第六轴以及与所述第二方向的拖拽操作相对应的所述第五轴构成。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-203054 | 2014-10-01 | ||
JP2014203054A JP6497021B2 (ja) | 2014-10-01 | 2014-10-01 | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105479467A CN105479467A (zh) | 2016-04-13 |
CN105479467B true CN105479467B (zh) | 2018-12-04 |
Family
ID=55632140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510640859.3A Active CN105479467B (zh) | 2014-10-01 | 2015-09-30 | 机器人操作装置、机器人系统以及机器人操作程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10001912B2 (zh) |
JP (1) | JP6497021B2 (zh) |
CN (1) | CN105479467B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6631279B2 (ja) * | 2015-03-19 | 2020-01-15 | 株式会社デンソーウェーブ | ロボット操作装置、ロボット操作プログラム |
US10048851B2 (en) * | 2015-03-19 | 2018-08-14 | Denso Wave Incorporated | Apparatus for operating robots |
JP6423816B2 (ja) * | 2016-04-11 | 2018-11-14 | ファナック株式会社 | 制御用cpuを追加できる制御システム |
JP6511011B2 (ja) * | 2016-05-11 | 2019-05-08 | 川崎重工業株式会社 | ロボット教示装置 |
US10571902B2 (en) * | 2016-10-12 | 2020-02-25 | Sisu Devices Llc | Robotic programming and motion control |
JP2018176320A (ja) * | 2017-04-07 | 2018-11-15 | 株式会社ディスコ | 加工装置 |
JP6526098B2 (ja) * | 2017-04-26 | 2019-06-05 | ファナック株式会社 | ロボットを操作するための操作装置、ロボットシステム、および操作方法 |
JP6633580B2 (ja) | 2017-08-02 | 2020-01-22 | ファナック株式会社 | ロボットシステム及びロボット制御装置 |
JP1606242S (zh) * | 2017-11-22 | 2018-06-11 | ||
JP6784660B2 (ja) * | 2017-11-28 | 2020-11-11 | ファナック株式会社 | 入力装置およびロボットの制御システム |
JP6737824B2 (ja) * | 2018-03-13 | 2020-08-12 | ファナック株式会社 | 制御装置、制御方法及び制御プログラム |
JP6770025B2 (ja) * | 2018-07-12 | 2020-10-14 | ファナック株式会社 | ロボット |
CN109397265B (zh) * | 2018-11-13 | 2020-10-16 | 华中科技大学 | 一种基于动力学模型的关节型工业机器人拖拽示教方法 |
CN109822565A (zh) * | 2019-01-15 | 2019-05-31 | 北京镁伽机器人科技有限公司 | 机器人控制方法、系统及存储介质 |
KR102118293B1 (ko) * | 2019-12-10 | 2020-06-02 | 주식회사 아진엑스텍 | 터치스크린을 포함하는 휴대용 단말을 이용한 로봇 장치 제어 방법 |
CN112454333B (zh) * | 2020-11-26 | 2022-02-11 | 青岛理工大学 | 基于图像分割及表面肌电信号的机器人示教系统及方法 |
CN112706148A (zh) * | 2020-12-25 | 2021-04-27 | 珠海新天地科技有限公司 | 一种机器人操作装置及方法 |
WO2022195703A1 (ja) * | 2021-03-16 | 2022-09-22 | オリンパス株式会社 | マニピュレータシステムおよびマニピュレータ駆動方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60170811U (ja) * | 1984-04-13 | 1985-11-12 | 日本電気株式会社 | ロボツト教示装置 |
JPS61151711A (ja) * | 1984-12-26 | 1986-07-10 | Hitachi Ltd | ロボツトの教示装置 |
JPH0957671A (ja) * | 1995-08-23 | 1997-03-04 | Canon Inc | 多関節型移動体の制御装置及びその制御方法 |
JPH11262883A (ja) * | 1998-03-19 | 1999-09-28 | Denso Corp | ロボットのマニュアル操作装置 |
JP4347313B2 (ja) | 2006-02-23 | 2009-10-21 | ファナック株式会社 | ロボット教示操作盤 |
DK3045273T3 (en) * | 2006-03-03 | 2019-02-25 | Universal Robots As | Joint for a robot |
JP2008084158A (ja) * | 2006-09-28 | 2008-04-10 | Toyota Motor Corp | 入力装置 |
JP2009142941A (ja) * | 2007-12-14 | 2009-07-02 | Toyota Motor Corp | 制御装置及び制御方法 |
EP2124117B1 (de) * | 2008-05-21 | 2012-05-02 | Siemens Aktiengesellschaft | Bedieneinrichtung zur Bedienung einer Werkzeugmaschine |
JP4676544B2 (ja) * | 2009-05-29 | 2011-04-27 | ファナック株式会社 | 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置 |
JP5669169B2 (ja) * | 2009-07-28 | 2015-02-12 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
JP5526881B2 (ja) * | 2010-03-12 | 2014-06-18 | 株式会社デンソーウェーブ | ロボットシステム |
WO2012062374A1 (en) * | 2010-11-12 | 2012-05-18 | Abb Technology Ag | A control system and an operating device for controlling an industrial robot comprising a touch -screen |
KR20130008424A (ko) * | 2011-07-12 | 2013-01-22 | 삼성전자주식회사 | 휴대 단말기에서 바로 가기 기능을 실행하는 장치 및 방법 |
JP2013154410A (ja) * | 2012-01-26 | 2013-08-15 | Canon Inc | 教示装置 |
DE102012102749A1 (de) | 2012-03-29 | 2013-10-02 | Reis Group Holding Gmbh & Co. Kg | Vorrichtung und Verfahren zur Bedienung eines Industrieroboters |
WO2014013605A1 (ja) * | 2012-07-20 | 2014-01-23 | 株式会社安川電機 | ロボットシミュレータ、ロボット教示装置およびロボット教示方法 |
JP2014154091A (ja) * | 2013-02-13 | 2014-08-25 | Mitsubishi Electric Corp | ユーザインタフェース装置及びユーザインタフェース方法 |
JP5716769B2 (ja) * | 2013-02-21 | 2015-05-13 | 株式会社安川電機 | ロボットシミュレータ、ロボット教示装置およびロボット教示方法 |
JP5904143B2 (ja) * | 2013-03-07 | 2016-04-13 | 富士通株式会社 | Ponシステムおよび局側装置 |
JP6297784B2 (ja) * | 2013-03-21 | 2018-03-20 | 株式会社椿本チエイン | マニピュレータ装置 |
JP2014191641A (ja) * | 2013-03-27 | 2014-10-06 | Fujitsu Ltd | インストールプログラム及びインストール方法 |
JP5939213B2 (ja) * | 2013-08-09 | 2016-06-22 | 株式会社安川電機 | ロボット制御装置及びロボット制御方法 |
JP6476662B2 (ja) * | 2013-09-20 | 2019-03-06 | 株式会社デンソーウェーブ | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
JP6361213B2 (ja) * | 2014-03-26 | 2018-07-25 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム |
US10387021B2 (en) * | 2014-07-31 | 2019-08-20 | Restoration Robotics, Inc. | Robotic hair transplantation system with touchscreen interface for controlling movement of tool |
JP6379902B2 (ja) * | 2014-09-16 | 2018-08-29 | 株式会社デンソーウェーブ | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
US20160274787A1 (en) * | 2015-03-19 | 2016-09-22 | Denso Wave Incorporated | Apparatus for operating robots |
US10048851B2 (en) * | 2015-03-19 | 2018-08-14 | Denso Wave Incorporated | Apparatus for operating robots |
-
2014
- 2014-10-01 JP JP2014203054A patent/JP6497021B2/ja active Active
-
2015
- 2015-09-30 CN CN201510640859.3A patent/CN105479467B/zh active Active
- 2015-10-01 US US14/872,403 patent/US10001912B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20160096275A1 (en) | 2016-04-07 |
US10001912B2 (en) | 2018-06-19 |
JP6497021B2 (ja) | 2019-04-10 |
JP2016068236A (ja) | 2016-05-09 |
CN105479467A (zh) | 2016-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105479467B (zh) | 机器人操作装置、机器人系统以及机器人操作程序 | |
CN105722650B (zh) | 机器人操作装置及机器人系统 | |
JP6642054B2 (ja) | ロボット操作装置、及びロボット操作プログラム | |
US20210252713A1 (en) | External input device, robot system, control method of robot system, control program, and recording medium | |
US10048851B2 (en) | Apparatus for operating robots | |
US10086517B2 (en) | Apparatus and method for operating robots | |
JP2014512530A (ja) | 座標位置決め装置 | |
CN103488278B (zh) | 一种控制方法和电子设备 | |
CN108981567B (zh) | 位置测量装置的操作方法 | |
CN106250355A (zh) | 通过触摸操作来编辑电子数据的信息处理装置 | |
JP2016175132A (ja) | ロボット操作装置、ロボット操作方法 | |
JP6379902B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
JP6710919B2 (ja) | ロボット操作装置 | |
JP5024905B2 (ja) | 衣料折り畳みシステム、衣料折り畳み指示装置 | |
CN110385703A (zh) | 多节式致动的运动机构,优选机器人,特别优选关节型机器人 | |
JP6601201B2 (ja) | ロボット操作装置、及びロボット操作プログラム | |
JP6379921B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
CN107901057A (zh) | 一种用于操控机器人的手持人机交互设备 | |
WO2015122259A1 (ja) | 入力方法、及び入力装置 | |
JP2016175143A (ja) | ロボット操作装置、及びロボット操作プログラム | |
JP2005342891A (ja) | 産業用ロボットの手持操作器およびロボット制御システム | |
JP2020069579A (ja) | ロボットシステム | |
JP2021084215A (ja) | 教示装置、ロボットシステムおよび教示プログラム | |
CN104914980A (zh) | 一种信息处理方法及装置 | |
CN112706148A (zh) | 一种机器人操作装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |