KR20170016436A - 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법 - Google Patents

작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법 Download PDF

Info

Publication number
KR20170016436A
KR20170016436A KR1020177000131A KR20177000131A KR20170016436A KR 20170016436 A KR20170016436 A KR 20170016436A KR 1020177000131 A KR1020177000131 A KR 1020177000131A KR 20177000131 A KR20177000131 A KR 20177000131A KR 20170016436 A KR20170016436 A KR 20170016436A
Authority
KR
South Korea
Prior art keywords
work
dimensional model
robot
teaching data
display unit
Prior art date
Application number
KR1020177000131A
Other languages
English (en)
Inventor
다카히토 아즈마
마사토 우치하라
고헤이 나가하라
Original Assignee
나부테스코 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나부테스코 가부시키가이샤 filed Critical 나부테스코 가부시키가이샤
Publication of KR20170016436A publication Critical patent/KR20170016436A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4097Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36459Nc in input of data, input key till input tape offline program for plural robots, send data to corresponding robots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39441Voice command, camera detects object, grasp, move
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40397Programming language for robots, universal, user oriented

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

작업 로봇의 교시 데이터 생성 장치는, 복수의 작업 로봇(12)에 관한 각각의 3차원 모델이 기억된 기억부(22)와, 작업 로봇(12)이 설치되는 실제의 작업 공간(WS)을 나타내는 버추얼 공간을 표시함과 함께, 기억부(22)에 기억된 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 3차원 모델을 상기 버추얼 공간 내에 배치된 상태에서 표시하는 표시부(26)와, 3차원 모델을 동작시키기 위한 지령에 따라, 표시부(26)에 표시된 3차원 모델을 동작시키는 동작 제어부와, 상기 동작 제어부에 의해 동작한 상기 3차원 모델의 움직임 데이터로부터 작업 로봇(12)의 교시 데이터를 생성하는 교시 데이터 생성부를 구비하고 있다.

Description

작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법{TEACHING DATA-GENERATING DEVICE AND TEACHING DATA-GENERATING METHOD FOR WORK ROBOT}
본 발명은 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법에 관한 것이다.
종래, 하기 특허문헌 1 및 2에 개시되어 있는 바와 같이, 작업 로봇의 교시(티칭) 방법으로서, 오프라인 티칭이 알려져 있다. 오프라인 티칭이란, 작업 로봇의 모델을 가상 공간상에 설치하고, 로봇 조작의 시뮬레이션을 행하여 교시 데이터를 작성하는 것이다. 오프라인 티칭에서는 이하의 이점이 있다. 즉, 실제의 작업 로봇을 사용하여 티칭 작업을 행하는 것은 아니기 때문에, 티칭 작업 시에 공장 라인을 정지할 필요가 있다는 문제가 발생할 일은 없다. 또한 작업 로봇이나 워크 등을 파손시킬 우려도 없다.
오프라인 티칭에 있어서는, 어떤 작업 로봇을 가상 공간상에서 움직이게 하여 티칭 작업을 행한다. 이로 인해, 실제의 작업 로봇의 조작 방법을 숙지하고 있지 않은 사람이라도, 작업 로봇의 조작을 한 적이 있는 사람이라면, 티칭 펜던트에 의해 실제의 작업 로봇의 티칭을 행하는 티칭 플레이백에 비교하면, 비교적 안심하고 티칭 작업을 행할 수 있다. 그러나, 작업 로봇을 지금까지 사용한 적이 없는 작업 현장에 작업 로봇을 도입하는 것을 검토하고 있는 사람에게 있어서는, 가상 공간상에서 작업 로봇을 움직이게 하여 티칭 작업을 행한다고 하더라도, 실제의 작업 현장에 설치된 작업 로봇의 움직임을 이미지할 수 없으면, 어느 정도 작업 로봇을 움직이게 하면 좋을지 등의 감각을 파악하는 것은 어렵다. 게다가, 티칭 작업 자체가 번잡한 것이기 때문에, 작업 로봇의 도입을 검토하고 있는 사람에게 있어서는, 티칭 작업이 작업 로봇의 도입을 단행하는 장해가 될 수 있다.
일본 특허 공개 제2007-272309호 공보 일본 특허 공개 제2008-20993호 공보
본 발명의 목적은, 오프라인 티칭에 의한 티칭 작업의 부하를 저감할 수 있는 작업 로봇의 교시 데이터 생성 장치 또는 교시 데이터 생성 방법을 제공하는 것이다.
본 발명의 일 국면에 따르는 작업 로봇의 교시 데이터 생성 장치는, 복수의 작업 로봇에 대한 각각의 3차원 모델이 기억된 기억부와, 작업 로봇이 설치되는 실제의 작업 공간을 나타내는 버추얼 공간을 표시함과 함께, 상기 기억부에 기억된 상기 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 3차원 모델을 상기 버추얼 공간 내에 배치된 상태에서 표시하는 표시부와, 3차원 모델을 동작시키기 위한 지령에 따라, 상기 표시부에 표시된 상기 3차원 모델을 동작시키는 동작 제어부와, 상기 동작 제어부에 의해 동작한 상기 3차원 모델의 움직임 데이터로부터 상기 작업 로봇의 교시 데이터를 생성하는 교시 데이터 생성부를 구비하고 있다.
또한, 본 발명의 다른 일 국면에 따르는 작업 로봇의 교시 데이터 생성 방법은, 작업 로봇이 설치되는 실제의 작업 공간을 나타내는 버추얼 공간을 표시부에 표시함과 함께, 기억부에 기억된 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 3차원 모델을 상기 버추얼 공간 내에 배치된 상태에서 상기 표시부에 표시하는 스텝과, 3차원 모델을 동작시키기 위한 지령에 따라, 상기 표시부에 표시된 상기 3차원 모델을 동작시키는 스텝과, 동작한 상기 3차원 모델의 움직임 데이터로부터 상기 작업 로봇의 교시 데이터를 생성하는 스텝을 포함한다.
도 1은 본 발명의 실시 형태에 관한 작업 로봇의 교시 데이터 생성 장치의 구성을 개략적으로 도시하는 도면이다.
도 2는 상기 교시 데이터 생성 장치가 갖는 기능을 설명하기 위한 도면이다.
도 3의 (a), (b)는 카메라로 촬영된 화상을 설명하기 위한 도면이다.
도 4는 표시부에 표시된 버추얼 공간 및 3차원 모델을 도시하는 도면이다.
도 5는 3차원 모델을 도시하는 도면이다.
도 6의 (a)는 미니어처 모델이 외부 입력부에 접속된 상태를 개략적으로 도시하는 도면이며, (b)는 음성 정보를 출력하는 컴퓨터가 외부 입력부에 접속된 상태를 개략적으로 도시하는 도면이다.
도 7은 본 발명의 실시 형태에 관한 작업 로봇의 교시 데이터 생성 방법을 설명하기 위한 도면이다.
이하, 본 발명을 실시하기 위한 형태에 대하여 도면을 참조하면서 상세하게 설명한다.
도 1에 도시하는 바와 같이, 본 실시 형태에 관한 작업 로봇의 교시 데이터 생성 장치(10)[이하, 간단히, 교시 데이터 생성 장치(10)라고 칭함]는, 예를 들어 6축 로봇 등의 작업 로봇(12)을 교시(티칭)하기 위한 교시 데이터를 생성하는 것이다. 이 작업 로봇(12)은 작업 공간 WS 내에서, 예를 들어 중량물 등의 워크를 제1 위치로부터 제2 위치로 이동시키기 위해 사용할 수 있다. 작업 로봇(12)은, 예를 들어 베이스(12a)와, 베이스(12a)에 대하여 수직축 주위로 회전 가능한 선회대(12b)와, 선회대(12b)에 대하여 수평축 주위로 회동 가능하게 관절부를 개재하여 선회대(12b)에 연결된 동체부(12c)와, 동체부(12c)에 대하여 수평축 주위로 회동 가능하게 동체부(12c)의 선단부에 관절부를 개재하여 연결된 아암 지지부(12d)와, 아암 지지부(12d)에 대하여 아암 지지부(12d)의 축 주위로 회동 가능한 손목부(12e)와, 손목부(12e)의 선단부에 회동부를 개재하여 현수된 파지부(12f)를 갖는다.
작업 로봇(12)은 당해 로봇(12)의 구동 제어 장치인 로봇 컨트롤러(14)에 전기적으로 접속되어 있고, 이 로봇 컨트롤러(14)로부터의 지령에 따른 동작을 행한다. 로봇 컨트롤러(14)에는, 작업 로봇(12)의 동작을 규정하기 위한 교시 데이터가 기억되어 있다. 이 교시 데이터는, 교시 데이터 생성 장치(10)로부터 보내진 것이다.
교시 데이터 생성 장치(10)는, 연산 장치(CPU)(21), 기억부(ROM)(22), 일시 기억부(23)(RAM), 입력부로서의 키보드(24), 입력부로서의 마우스(25), 표시부(26)(디스플레이), 외부 입력부(27) 등을 구비하고 있다. 기억부(22)에는, 교시 데이터 생성 장치(10)를 기능시키기 위한 프로그램이 기억되어 있다. 또한, 기억부(22)에는, 작업 로봇(12)의 3차원 모델(30)이 기억되어 있다. 이 3차원 모델(30)은 작업 로봇(12)을 소프트웨어에 의해 3차원적으로 모델화한 것이다. 3차원 모델(30)은, 작업 로봇(12)을 버추얼 공간 VS에 가상적으로 배치하기 위해 사용되고, 작업 로봇(12)과 동일한 구성이며, 또한 버추얼 공간 VS 내에서 작업 로봇(12)과 동일한 움직임이 가능하게 되어 있다. 따라서, 3차원 모델(30)도, 작업 로봇(12)과 마찬가지로, 예를 들어 베이스(30a), 선회대(30b), 동체부(30c), 아암 지지부(30d), 손목부(30e) 및 파지부(30f)를 갖고 있다. 기억부(22)에는, 기종이나 사이즈가 상이한 복수의 작업 로봇(12)에 대해 각각의 3차원 모델(30)이 기억되어 있다(도 5 참조).
교시 데이터 생성 장치(10)는, 기억부(22)에 기억된 프로그램을 실행함으로써, 소정의 기능을 발휘한다. 이 기능에는, 도 2에 도시하는 바와 같이, 버추얼 공간 작성부(41)와, 3차원 모델 배치 제어부(42)와, 동작 제어부(43)와, 교시 데이터 생성부(44)와, 변환부(45)와, 송수신부(46)가 포함되어 있다. 또한, 이들 기능은, 소프트웨어에 의해 실현되어도 되고, 또는 하드웨어에 의해 실현되어 있어도 된다.
버추얼 공간 작성부(41)는, 작업 로봇(12)이 설치되는 실제의 작업 공간 WS를 나타내기 위한 작업 공간 정보에 기초하여, 작업 공간 WS의 버추얼 공간 VS(도 4 참조)를 작성한다. 이 작업 공간 정보는, 외부 입력부(27)를 통하여 입력된 화상 정보에 기초하여 얻어지는 정보이다. 구체적으로는, 화상 정보는, 예를 들어 실제의 작업 공간 WS를 카메라(50)로 촬영했을 때의 화상으로부터 얻어지는 정보이며, 외부 입력부(27)를 통하여 입력된 화상 정보는 기억부(22)에 기억된다. 이 화상 정보는, 예를 들어 도 3의 (a), (b)에 도시하는 바와 같이, 작업 공간 WS의 저면(51), 천장면(52), 모든 측면(53)을 포함하도록 촬영함으로써 얻어진 복수의 화상으로부터 얻어진다. 또한, 설명을 간이화하기 위해, 작업 공간 WS는 직육면체 형상인 것으로 한다.
또한, 화상 정보는, 카메라(50)로 촬영된 화상으로부터 얻어지는 정보에 한정되지 않는다. 이것 대신에, 작업 공간 WS를 나타내도록 3차원 CAD에 의해 작성한 데이터로부터 얻어지는 정보, 3차원 스캐너 또는 레이저 스캐너(도시 생략)에 의한 작업 공간 WS의 스캔 화상으로부터 얻어지는 정보여도 된다.
버추얼 공간 작성부(41)는 표시부(26)에 표시된 각 화상에 있어서, 작업 공간 WS를 구성하고 있는 직육면체의 각 정점을 지시하는 지령을 접수하고, 이 지령에 기초하여, 3차원 좌표 상에서의 작업 공간 WS의 각 정점의 좌표를 도출한다. 예를 들어, 도 3의 (a), (b)에 도시하는 화상이 표시부(26)에 표시된 상태에서, 사용자가 표시부(26) 상에서 작업 공간 WS의 각 정점(예를 들어, P1, P2, …, P8)의 위치에 마우스(25)를 사용해서 커서를 맞추어 클릭하면, 버추얼 공간 작성부(41)는, 그 클릭된 위치로부터, 정점 위치의 3차원 좌표 상에 있어서의 좌표를 도출한다. 이 버추얼 공간 VS의 각 정점의 좌표를 나타내는 정보가, 실제의 작업 공간 WS를 나타내기 위한 작업 공간 정보가 된다. 그리고, 버추얼 공간 작성부(41)는, 작업 공간 정보를 사용하여 표시부(26)에 작업 공간 WS를 입체적으로 표시하기 위한 처리를 행하고, 이에 의해 버추얼 공간 VS가 작성된다. 그리고, 표시부(26)에는, 도 4에 도시하는 바와 같이, 버추얼 공간 VS가 표시된다.
또한, 버추얼 공간 작성부(41)는, 실제의 치수를 3차원 좌표상에서의 공간 길이에 대응시키기 위한 지령을 받고 있다. 따라서, 3차원 좌표상의 좌표 데이터로부터 실제의 치수를 언제라도 산출할 수 있다.
3차원 모델 배치 제어부(42)는 표시부(26)에 표시된 버추얼 공간 VS의 소정 위치에 작업 로봇(12)의 3차원 모델(30)을 배치하기 위한 제어를 행한다. 이 3차원 모델(30)은 기억부(22)에 기억된 복수의 작업 로봇(12)의 3차원 모델(30)로부터 선택된 것이다. 또한, 도 5에는, 기억부(22)에 기억된 복수의 3차원 모델(30) 중, 사이즈가 상이한 2개의 작업 로봇(12)의 3차원 모델(30)이 그려져 있다.
그리고, 3차원 모델 배치 제어부(42)는, 기억부(22)에 기억되어 있는 복수의 3차원 모델(30)로부터 어느 작업 로봇(12)의 3차원 모델(30)을 선택할지에 관한 지령을 접수하고, 이 지령에 따라서, 적어도 하나의 3차원 모델(30)을 선택한다.
3차원 모델(30)의 선택은, 예를 들어 표시부(26)에 3차원 모델(30)[또는 작업 로봇(12)]의 일람이 표시된 화면에 있어서, 마우스(25)나 키보드(24)의 조작에 의한 지령을 접수함으로써 행할 수 있다. 따라서, 복수의 3차원 모델(30)[또는 작업 로봇(12)]을 선택하기 위해서는, 어느 3차원 모델(30)[또는 작업 로봇(12)]을 선택할지의 지령을 반복하면 된다.
또한, 3차원 모델 배치 제어부(42)는, 작업 로봇(12)의 3차원 모델(30)을 작업 공간 WS 내의 어디에 배치할지에 관한 지령도 접수한다. 이 지령은 버추얼 공간 VS를 표시하고 있는 표시부(26) 상에서 커서를 소정 위치에 맞추어 마우스(25)를 클릭함으로써 이루어진다. 그리고, 3차원 모델 배치 제어부(42)는 선택된 작업 로봇(12)의 3차원 모델(30)을, 버추얼 공간 VS 내에 있어서의 지령에 따른 지정 위치에 배치한다. 또한, 복수의 3차원 모델(30)이 선택되었을 때에는, 3차원 모델 배치 제어부(42)는, 선택된 각 3차원 모델(30)에 대하여 각각 어디에 배치할지에 관한 지령을 접수하고, 각 지정 위치에 각 3차원 모델(30)을 배치한다.
동작 제어부(43)는 마우스(25)를 조작함으로써 마우스(25)로부터 출력되는 신호에 따라, 표시부(26)에 표시된 3차원 모델(30)을 동작시키기 위한 제어를 행한다. 동작 제어부(43)는 마우스(25)로부터 출력되는 신호에 따라, 작업 로봇(12)이 행하게 되는 일련의 동작과 동일한 동작을 3차원 모델(30)에 행하게 한다. 따라서, 이 3차원 모델(30)의 동작은, 실제의 작업 로봇(12)의 동작에 입각한 동작이 된다. 구체적으로, 3차원 모델(30)의 각 부위 중 동작 가능한 부위[예를 들어 동체부(30c)]를 마우스(25)를 사용하여 선택하고, 드래그 등 함으로써, 동작 제어부(43)는 이 부위[예를 들어 동체부(30c)]를 실제의 움직임에 입각하여 움직이게 한다.
표시부(26)에 복수의 작업 로봇(12)의 3차원 모델(30)이 표시되어 있는 경우에는, 동작 제어부(43)는 어느 3차원 모델(30)을 동작시킬지에 관한 지령을 접수한다. 이 지령은, 예를 들어 마우스(25)로 커서를 대상의 3차원 모델(30)에 맞추어 클릭하는 등에 의해 출력되는 지령이다. 그리고, 각 3차원 모델(30)을 선택하는 지령 및 동작 지령을 각각 접수함으로써, 표시부(26)에 표시되어 있는 각 3차원 모델(30)을 각각 동작시킬 수 있다.
또한, 동작 제어부(43)에 지령을 부여하는 지령부는, 마우스(25)에 한정되지 않는다. 예를 들어, 도 6의 (a)에 도시하는 바와 같이, 외부 입력부(27)에 전기적으로 접속된 미니어처 모델(58)이어도 된다. 이 미니어처 모델(58)은 실제의 작업 로봇(12)을 소형화한 모형이며, 작업 로봇(12)과 동일하게 수동 또는 자동으로 움직이게 할 수 있다. 그리고, 미니어처 모델(58)은 각 부위가 움직이게 되면, 거기에 따른 신호를 출력한다. 이 경우, 동작 제어부(43)는 이 신호를 3차원 모델(30)을 움직이게 하기 위한 지령으로서 접수하도록 구성된다.
또한, 도 6의 (b)에 도시하는 바와 같이, 동작 제어부(43)에 지령을 부여하는 지령은, 표시부(26)에 표시된 3차원 모델(30)을 움직이게 하도록 부여된 음성 정보로부터 변환된 지령이어도 된다. 이 음성 정보는, 외부 입력부(27)에 전기적으로 접속된 지령부로서의 컴퓨터(59)에 입력된다. 당해 컴퓨터(59)는, 음성 정보로부터 변환한 정보를 외부 입력부(27)를 통하여 연산 장치(21)에 입력한다.
교시 데이터 생성부(44)는, 마우스(25) 등으로부터 부여된 지령에 따라서 3차원 모델(30)의 동체부(12c) 등의 각 부위가 동작했을 때, 동작한 부위의 움직임 데이터(예를 들어 이동량, 회동 각도, 이동 속도, 회동 속도 등의 데이터)를 당해 부위에 따라서 기억한다. 그리고, 교시 데이터 생성부(44)는, 기억된 이들 데이터에 기초하여 교시 데이터를 생성한다. 이 교시 데이터에는, 작업 로봇(12)이 행하는 일련의 동작마다, 각 동작에 대하여 각 부위를 소정량 움직이게 하기 위한 관절부의 회전 각도 정보, 각 부위의 이동량 정보 등이 포함된다.
변환부(45)는 교시 데이터 생성부(44)에 있어서 생성된 교시 데이터를, 지령에 따라, 작업 로봇(12)을 동작시키기 위한 로봇 언어로 변환한다. 즉, 교시 데이터 생성 장치(10)에는, 복수의 3차원 모델(30)이 기억되어 있지만, 이들 3차원 모델(30)에 대응하는 작업 로봇(12)을 동작시키는 로봇 언어는, 모두 동일하다고 한정할 수는 없다. 따라서, 변환부(45)는 키보드(24) 또는 마우스(25)를 통하여 입력되는 지령에 기초하여, 또는 자동으로, 교시 데이터를 지정된 로봇 언어로 변환한다. 어느 언어로 변환할지에 대해서는, 미리 기억부(22)에 기억해 두어도 되고, 또는 키보드(24) 등으로부터 지령해도 된다.
송수신부(46)는 변환부(45)에 의해 로봇 언어로 변환된 교시 데이터[또는 변환할 필요가 없을 경우에 있어서는, 교시 데이터 생성부(44)에 의해 생성된 교시 데이터 그 자체]를, 키보드(24) 또는 마우스(25)로부터의 지령에 따라 로봇 컨트롤러(14)에 송신한다.
여기서, 도 7을 참조하면서, 교시 데이터 생성 장치(10)에 의해 행해지는 교시 데이터 생성 방법에 대하여 설명한다.
교시 데이터 생성 방법에 있어서는, 먼저, 버추얼 공간 작성부(41)가 화상 정보를 읽어들인다(스텝 ST1). 이 화상 정보는, 실제의 작업 공간 WS의 촬영 화상을 구성하는 정보이다. 그리고, 버추얼 공간 작성부(41)는, 이 화상 정보로부터 작업 공간 정보를 구성하고, 버추얼 공간 VS를 작성한다(스텝 ST2). 구체적으로, 스텝 ST2에서는, 버추얼 공간 작성부(41)는 표시부(26)에 표시되어 있는 작업 공간 WS의 각 정점을 지시하는 지령을 접수하고, 3차원 좌표 상에서의 작업 공간 WS의 각 정점의 좌표를 도출한다. 이 버추얼 공간 VS의 각 정점의 좌표를 나타내는 정보가, 실제의 작업 공간 WS를 나타내기 위한 작업 공간 정보가 된다. 그리고, 버추얼 공간 작성부(41)는, 작업 공간 정보로부터 표시부(26) 상에 작업 공간 WS를 입체적으로 표시하기 위한 처리를 행하고, 이에 의해 버추얼 공간 VS가 작성된다.
이어서, 3차원 모델 배치 제어부(42)는, 기억부(22)에 기억된 복수의 작업 로봇(12)의 3차원 모델(30)로부터 어느 하나의 3차원 모델(30)을 선택할지에 관한 지령을 접수하고, 당해 지령에 기초하여, 3차원 모델(30)을 선택하는 제어를 행한다(스텝 ST3). 이때, 하나의 3차원 모델(30)만이 선택되어도 되고, 또는 복수의 3차원 모델(30)이 선택되어도 된다. 또한, 스텝 ST3은 스텝 ST2 전에 행해져도 된다.
그리고, 3차원 모델 배치 제어부(42)는 버추얼 공간 VS 내의 지정된 위치에, 선택된 3차원 모델(30)을 배치한다(스텝 ST4). 이때, 복수의 3차원 모델(30)의 선택이 선택되어 있을 때에는, 선택된 모든 3차원 모델(30)이 각각 지정된 위치에 배치된다.
계속해서, 동작 제어부(43)는 표시부(26)에 표시된 3차원 모델(30)을 동작시킨다(스텝 ST5). 이 동작은, 마우스(25) 등에 의한 지령에 기초하고 있으며, 3차원 모델(30)은 작업 로봇(12)이 행하게 되는 일련의 동작과 동일한 동작을 행한다. 또한, 표시부(26)에 복수의 3차원 모델(30)이 표시되어 있는 경우에는, 지령에 의해, 각 3차원 모델(30)이 순차 동작한다.
3차원 모델(30)이 동작했을 때에는, 교시 데이터 생성부(44)는, 동작한 각 부위의 움직임 데이터를 기억한다. 이 기억된 데이터에 기초하여, 교시 데이터 생성부(44)는, 작업 로봇(12)의 교시 데이터를 생성한다(스텝 ST6). 그리고, 필요에 따라, 교시 데이터를 작업 로봇(12)을 동작시키기 위한 로봇 언어로 변환한다(스텝 ST7). 이 교시 데이터는 로봇 컨트롤러(14)에 송신된다(스텝 ST8).
이상 설명한 바와 같이, 본 실시 형태에서는, 표시부(26)에 있어서, 실제의 작업 공간 WS를 나타내는 작업 공간 정보에 기초하여 생성된 버추얼 공간 VS가 표시된다. 즉, 실제의 작업 공간 WS를 재현한 버추얼 공간 VS가 표시부(26)에 표시된다. 이로 인해, 작업 로봇(12)의 도입을 검토하고 있는 사람에게 있어서, 작업 로봇(12)이 실제의 작업 공간 WS에 설치된 상태를 이미지하기 쉬워진다. 그리고, 버추얼 공간 VS 내에는 의사적인 작업 로봇인 작업 로봇(12)의 3차원 모델(30)이 배치된다. 이 3차원 모델(30)은, 기억부(22)에 기억된 복수의 작업 로봇(12)의 각각의 3차원 모델(30)로부터 선택된 적어도 하나의 작업 로봇(12)의 3차원 모델(30)이다. 즉, 도입을 검토하고 있는 작업 로봇(12)의 3차원 모델(30)을 선택하고, 버추얼 공간 VS 내에 배치할 수 있다. 이로 인해, 실제의 작업 현장에 따른 작업 로봇(12)이 버추얼 공간 VS 내에 배치된 상태를 표시부(26)에 표시할 수 있다. 따라서, 작업 로봇(12)의 도입을 검토하고 있는 사람이, 실제로 도입하려고 하는 작업 로봇(12)이 실제의 작업 공간 WS에 설치된 상태를 이미지하기 쉽다. 그리고, 마우스(25) 등으로부터 부여되는 지령에 기초하여, 표시부(26)에 표시된 작업 로봇(12)의 3차원 모델(30)을 동작시킬 수 있다. 그리고, 교시 데이터 생성부(44)는, 이 3차원 모델(30)의 움직임 데이터로부터 작업 로봇(12)의 교시 데이터를 생성한다. 따라서, 실제의 작업 공간 WS에 설치된 상태의 작업 로봇(12)을 이미지하면서 3차원 모델(30)을 움직이게 함으로써, 작업 로봇(12)의 교시 데이터를 생성할 수 있다. 이로 인해, 티칭 작업의 부하를 저감할 수 있다.
또한 본 실시 형태에서는, 카메라(50)에 의한 촬영 화상, 3차원 CAD에 의한 데이터 또는 스캐너에 의한 스캔 화상을 사용하여 버추얼 공간 VS를 작성한다. 이로 인해, 작업 로봇(12)의 도입이 검토되고 있는 작업 공간 WS의 버추얼 공간 VS를 생성하기 위한 작업을 간이화할 수 있다. 따라서, 작업 로봇(12)의 도입이 검토되고 있는 작업 공간 WS마다 버추얼 공간 VS를 준비하기 쉽게 할 수 있다.
또한 본 실시 형태의 교시 데이터 생성 장치(10)는 변환부(45)를 갖고 있으므로, 작업 로봇(12)의 메이커, 기종 등에 따라 로봇 언어가 상이한 경우에도, 그것에 대응된 언어로 작업 로봇(12)의 교시 데이터를 출력할 수 있다.
또한 본 실시 형태에서는, 표시부(26)에 표시된 3차원 모델(30)을 마우스(25) 등에 의해 용이하게 또한 이미지대로 움직이게 할 수 있다. 이로 인해, 티칭 작업의 부하를 더욱 저감할 수 있다.
또한 본 실시 형태에서는, 복수의 작업 로봇(12)의 3차원 모델(30)로부터 선택된 복수의 작업 로봇(12)의 3차원 모델(30)을 버추얼 공간 VS에 배치하여 표시부(26)에 표시할 수 있다. 그리고, 동작 제어부(43)에 부여되는 지령에 따라, 이들 3차원 모델(30) 중 어느 3차원 모델(30)을 움직이게 할지가 결정된다. 이것을 반복함으로써, 작업 공간 WS의 버추얼 공간 VS에 배치된 각각의 3차원 모델(30)에 대하여 동작 제어부(43)로부터 지령을 부여할 수 있다. 따라서, 하나의 작업 공간 WS에 복수의 작업 로봇(12)이 도입되는 것이 검토되고 있는 경우에도 대응 가능하게 된다.
또한, 본 발명은 상기 실시 형태에 한정되는 것은 아니며, 그 취지를 일탈하지 않는 범위에서 다양한 변경, 개량 등이 가능하다. 예를 들어, 교시 데이터 생성 장치(10)는 변환부(45)가 생략된 구성이어도 된다. 또한, 표시부(26)에는, 3차원 모델(30)을 하나만 표시하는 구성이어도 된다.
여기서, 상기 실시 형태에 대하여 개략적으로 설명한다.
(1) 상기 실시 형태에서는, 표시부에 있어서, 실제의 작업 공간을 나타내는 버추얼 공간이 표시된다. 즉, 실제의 작업 공간을 재현한 버추얼 공간이 표시부에 표시된다. 이로 인해, 작업 로봇의 도입을 검토하고 있는 사람에게 있어서, 작업 로봇이 실제의 작업 공간에 설치된 상태를 이미지하기 쉬워진다. 그리고, 버추얼 공간 내에는 의사적인 작업 로봇인 작업 로봇의 3차원 모델이 배치된다. 이 3차원 모델은, 기억부에 기억된 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 작업 로봇의 3차원 모델이다. 즉, 도입을 검토하고 있는 작업 로봇의 3차원 모델을 선택하여, 버추얼 공간 내에 배치할 수 있다. 이로 인해, 실제의 작업 현장에 따른 작업 로봇이 버추얼 공간 내에 배치된 상태를 표시부에 표시할 수 있다. 따라서, 작업 로봇의 도입을 검토하고 있는 사람이, 실제로 도입하려고 하는 작업 로봇이 실제의 작업 공간에 설치된 상태를 이미지하기 쉽다. 그리고, 지령부로부터 부여되는 지령에 기초하여, 표시부에 표시된 작업 로봇의 3차원 모델을 동작시킬 수 있다. 그리고, 교시 데이터 생성부는, 이 3차원 모델의 움직임 데이터로부터 작업 로봇의 교시 데이터를 생성한다. 따라서, 실제의 작업 공간에 설치된 상태의 작업 로봇을 이미지하면서 3차원 모델을 움직이게 함으로써, 작업 로봇의 교시 데이터를 생성할 수 있다. 이로 인해, 티칭 작업의 부하를 저감할 수 있다.
(2) 상기 버추얼 공간은, 카메라에 의한 상기 작업 공간의 촬영 화상, 3차원CAD에 의해 상기 작업 공간을 나타내도록 작성한 데이터, 또는 3차원 스캐너 또는 레이저 스캐너에 의한 상기 작업 공간의 스캔 화상을 사용해서 작성되어도 된다.
이 형태에서는, 카메라에 의한 촬영 화상, 3차원 CAD에 의한 데이터 또는 스캐너에 의한 스캔 화상을 사용하여 버추얼 공간을 작성할 수 있다. 이로 인해, 로봇의 도입이 검토되고 있는 작업 공간의 버추얼 공간을 생성하기 위한 작업을 간이화할 수 있다. 따라서, 로봇의 도입이 검토되고 있는 작업 공간마다 버추얼 공간을 준비하기 쉽게 할 수 있다.
(3) 상기 교시 데이터를 상기 작업 로봇을 동작시키는 로봇 언어로 변환하는 변환부를 구비하고 있어도 된다. 이 형태에서는, 작업 로봇의 메이커, 기종 등에 따라 로봇 언어가 상이한 경우에도, 그것에 대응한 언어로 작업 로봇의 교시 데이터를 출력할 수 있다.
(4) 상기 지령은 상기 표시부에 표시된 상기 3차원 모델을 움직이게 하도록 마우스를 조작함으로써 출력되는 신호, 상기 작업 로봇의 미니어처 모델의 움직임에 따라서 출력되는 신호, 또는 상기 표시부에 표시된 상기 3차원 모델을 움직이게 하도록 부여된 음성 정보로부터 변환된 지령에 의해 구성되어 있어도 된다. 이 형태에서는, 표시부에 표시된 3차원 모델을 용이하게 또한 이미지대로 움직이게 할 수 있다. 이로 인해, 티칭 작업의 부하를 보다 저감할 수 있다.
(5) 상기 표시부에, 상기 복수의 작업 로봇의 3차원 모델로부터 선택된 복수의 작업 로봇의 3차원 모델이 표시되어도 된다. 이 경우, 상기 동작 제어부는, 상기 표시부에 표시된 상기 복수의 3차원 모델 중 어느 것을 동작시킬 것인지에 관한 지령을 접수하도록 구성되어 있어도 된다.
이 형태에서는, 작업 공간의 버추얼 공간에 복수의 작업 로봇의 3차원 모델이 배치된 상태가 표시부에 표시된다. 그리고, 동작 제어부에 부여되는 지령에 따라, 이들 3차원 모델 중 어느 3차원 모델을 움직이게 할지가 결정된다. 이것을 반복함으로써, 작업 공간의 버추얼 공간에 배치된 각각의 3차원 모델에 대하여 동작 제어부로부터 지령을 부여할 수 있다. 따라서, 하나의 작업 공간에 복수의 작업 로봇이 도입되는 것이 검토되고 있을 경우에도 대응 가능하게 된다.
(6) 상기 실시 형태는, 작업 로봇이 설치되는 실제의 작업 공간을 나타내는 버추얼 공간을 표시부에 표시함과 함께, 기억부에 기억된 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 3차원 모델을 상기 버추얼 공간 내에 배치된 상태에서 상기 표시부에 표시하는 스텝과, 3차원 모델을 동작시키기 위한 지령에 따라, 상기 표시부에 표시된 상기 3차원 모델을 동작시키는 스텝과, 동작한 상기 3차원 모델의 움직임 데이터로부터 상기 작업 로봇의 교시 데이터를 생성하는 스텝이 포함되어 있는 작업 로봇의 교시 데이터 생성 방법이다.
(7) 상기 교시 데이터 생성 방법에는, 상기 교시 데이터를, 상기 작업 로봇을 동작시키는 로봇 언어로 변환하는 스텝이 더 포함되어 있어도 된다.
이상 설명한 바와 같이, 상기 실시 형태에 따르면, 오프라인 티칭에 의한 티칭 작업의 부하를 저감할 수 있다.

Claims (7)

  1. 복수의 작업 로봇에 대한 각각의 3차원 모델이 기억된 기억부와,
    작업 로봇이 설치되는 실제의 작업 공간을 나타내는 버추얼 공간을 표시함과 함께, 상기 기억부에 기억된 상기 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 3차원 모델을 상기 버추얼 공간 내에 배치된 상태에서 표시하는 표시부와,
    3차원 모델을 동작시키기 위한 지령에 따라, 상기 표시부에 표시된 상기 3차원 모델을 동작시키는 동작 제어부와,
    상기 동작 제어부에 의해 동작한 상기 3차원 모델의 움직임 데이터로부터 상기 작업 로봇의 교시 데이터를 생성하는 교시 데이터 생성부를 구비하고 있는, 작업 로봇의 교시 데이터 생성 장치.
  2. 제1항에 있어서,
    상기 버추얼 공간은, 카메라에 의한 상기 작업 공간의 촬영 화상, 3차원 CAD에 의해 상기 작업 공간을 나타내도록 작성한 데이터, 또는 3차원 스캐너 또는 레이저 스캐너에 의한 상기 작업 공간의 스캔 화상을 사용해서 작성되는, 작업 로봇의 교시 데이터 생성 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 교시 데이터를 상기 작업 로봇을 동작시키는 로봇 언어로 변환하는 변환부를 구비하고 있는, 작업 로봇의 교시 데이터 생성 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 지령은 상기 표시부에 표시된 상기 3차원 모델을 움직이게 하도록 마우스를 조작함으로써 출력되는 신호, 상기 작업 로봇의 미니어처 모델의 움직임에 따라서 출력되는 신호, 또는 상기 표시부에 표시된 상기 3차원 모델을 움직이게 하도록 부여된 음성 정보로부터 변환된 지령에 의해 구성되어 있는, 작업 로봇의 교시 데이터 생성 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 표시부에, 상기 복수의 작업 로봇의 3차원 모델로부터 선택된 복수의 작업 로봇의 3차원 모델이 표시되어 있고,
    상기 동작 제어부는, 상기 표시부에 표시된 상기 복수의 3차원 모델 중 어느 것을 동작시킬 것인지에 관한 지령을 접수하도록 구성되어 있는, 작업 로봇의 교시 데이터 생성 장치.
  6. 작업 로봇이 설치되는 실제의 작업 공간을 나타내는 버추얼 공간을 표시부에 표시함과 함께, 기억부에 기억된 복수의 작업 로봇의 각각의 3차원 모델로부터 선택된 적어도 하나의 3차원 모델을 상기 버추얼 공간 내에 배치된 상태에서 상기 표시부에 표시하는 스텝과,
    3차원 모델을 동작시키기 위한 지령에 따라, 상기 표시부에 표시된 상기 3차원 모델을 동작시키는 스텝과,
    동작한 상기 3차원 모델의 움직임 데이터로부터 상기 작업 로봇의 교시 데이터를 생성하는 스텝이 포함되어 있는 작업 로봇의 교시 데이터 생성 방법.
  7. 제6항에 있어서,
    상기 교시 데이터를, 상기 작업 로봇을 동작시키는 로봇 언어로 변환하는 스텝이 더 포함되어 있는, 작업 로봇의 교시 데이터 생성 방법.
KR1020177000131A 2014-06-06 2015-05-19 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법 KR20170016436A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2014-118065 2014-06-06
JP2014118065A JP2015229234A (ja) 2014-06-06 2014-06-06 作業ロボットの教示データ生成装置及び教示データ生成方法
PCT/JP2015/064370 WO2015186508A1 (ja) 2014-06-06 2015-05-19 作業ロボットの教示データ生成装置及び教示データ生成方法

Publications (1)

Publication Number Publication Date
KR20170016436A true KR20170016436A (ko) 2017-02-13

Family

ID=54766583

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177000131A KR20170016436A (ko) 2014-06-06 2015-05-19 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법

Country Status (7)

Country Link
US (1) US20170197308A1 (ko)
JP (1) JP2015229234A (ko)
KR (1) KR20170016436A (ko)
CN (1) CN106457570A (ko)
DE (1) DE112015002687T5 (ko)
TW (1) TW201606467A (ko)
WO (1) WO2015186508A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200047618A (ko) * 2017-10-20 2020-05-07 가부시키가이샤 키렉스 수직 다관절 로봇의 학습 데이터 작성 시스템

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6298035B2 (ja) * 2015-12-17 2018-03-20 ファナック株式会社 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
GB2551769B (en) * 2016-06-30 2020-02-19 Rolls Royce Plc Methods, apparatus, computer programs and non-transitory computer readable storage mediums for controlling a robot within a volume
CN108527320B (zh) * 2018-03-30 2021-08-13 天津大学 一种基于三维鼠标的协作机器人引导示教方法
JP6863927B2 (ja) * 2018-04-25 2021-04-21 ファナック株式会社 ロボットのシミュレーション装置
JP7063844B2 (ja) * 2019-04-26 2022-05-09 ファナック株式会社 ロボット教示装置
JP7260405B2 (ja) * 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
CN114683288B (zh) * 2022-05-07 2023-05-30 法奥意威(苏州)机器人系统有限公司 机器人展示和控制方法、装置及电子设备
JP2024108284A (ja) * 2023-01-31 2024-08-13 株式会社Screenホールディングス 作業支援方法および作業支援システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272309A (ja) 2006-03-30 2007-10-18 Komatsu Ltd 作業ロボットのオフラインティーチング装置
JP2008020993A (ja) 2006-07-11 2008-01-31 Tookin:Kk 作業用ロボットの教示データ作成装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6282406A (ja) * 1985-10-08 1987-04-15 Toshiba Corp 教示デ−タ作成装置
JP2992962B2 (ja) * 1990-03-31 1999-12-20 マツダ株式会社 計算機シミュレーションによるロボットのティーチング装置
JP2658492B2 (ja) * 1990-04-24 1997-09-30 松下電工株式会社 ロボットの作業教示方法
JPH10171517A (ja) * 1996-12-06 1998-06-26 Honda Motor Co Ltd オフラインティーチング方法
JPH1158011A (ja) * 1997-08-12 1999-03-02 Kawasaki Steel Corp 箱型内面ブロック溶接方法
JPH11134017A (ja) * 1997-10-27 1999-05-21 Honda Motor Co Ltd オフラインティーチング方法
JP3076841B1 (ja) * 1999-03-18 2000-08-14 工業技術院長 実環境適応型ロボットの教示プログラム作成方法
JP2001216015A (ja) * 2000-01-31 2001-08-10 Iwate Prefecture ロボットの動作教示装置
JP3713021B2 (ja) * 2003-02-17 2005-11-02 松下電器産業株式会社 生活空間用の物品取扱いシステム及びロボット操作装置
JP4056542B2 (ja) * 2005-09-28 2008-03-05 ファナック株式会社 ロボットのオフライン教示装置
DE602006003726D1 (de) * 2006-04-03 2009-01-02 Abb Research Ltd Vorrichtung und Verfahren zur Bahnerzeugung für einen Industrieroboter
SG177389A1 (en) * 2009-06-30 2012-02-28 Ulvac Inc Teaching apparatus of robot and teaching method of robot
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
CN203197922U (zh) * 2013-04-03 2013-09-18 华中科技大学 一种基于以太网通信的工业机器人示教盒

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272309A (ja) 2006-03-30 2007-10-18 Komatsu Ltd 作業ロボットのオフラインティーチング装置
JP2008020993A (ja) 2006-07-11 2008-01-31 Tookin:Kk 作業用ロボットの教示データ作成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200047618A (ko) * 2017-10-20 2020-05-07 가부시키가이샤 키렉스 수직 다관절 로봇의 학습 데이터 작성 시스템

Also Published As

Publication number Publication date
CN106457570A (zh) 2017-02-22
WO2015186508A1 (ja) 2015-12-10
DE112015002687T5 (de) 2017-03-09
US20170197308A1 (en) 2017-07-13
TW201606467A (zh) 2016-02-16
JP2015229234A (ja) 2015-12-21

Similar Documents

Publication Publication Date Title
KR20170016436A (ko) 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법
JP6725727B2 (ja) 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置
JP6810093B2 (ja) ロボットのシミュレーション装置
De Giorgio et al. Human-machine collaboration in virtual reality for adaptive production engineering
JP6193554B2 (ja) 3次元表示部を備えたロボット教示装置
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
Pan et al. Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device
KR20160002329A (ko) 로봇 시뮬레이터 및 로봇 시뮬레이터의 파일 생성 방법
KR20210058995A (ko) 용접 경로 생성을 위한 시스템 및 방법
JP2004213673A (ja) 強化現実システム及び方法
KR101876845B1 (ko) 로봇 제어 장치
JP2018008347A (ja) ロボットシステムおよび動作領域表示方法
US20060287772A1 (en) Device and method for programming an industrial robot
JP2018202514A (ja) ロボットの教示のための情報を表示するロボットシステム
JP2008100315A (ja) 制御シミュレーションシステム
JP2018128781A (ja) 座標情報変換装置及び座標情報変換プログラム
WO2015137162A1 (ja) 制御装置、ロボットシステム、および制御用データ生成方法
JP2010257081A (ja) 画像処理方法及び画像処理装置
JP7553559B2 (ja) プログラミング装置
JP2010094777A (ja) 遠隔操作支援装置
Jan et al. Smartphone based control architecture of teaching pendant for industrial manipulators
JP5291482B2 (ja) ロボット教示プログラム修正装置
JP2009166172A (ja) ロボットのシミュレーション方法及びロボットのシミュレーション装置
WO2022123850A1 (ja) 制御装置、制御方法、プログラム
JP2015100874A (ja) ロボットシステム