KR102000264B1 - 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법 - Google Patents

교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법 Download PDF

Info

Publication number
KR102000264B1
KR102000264B1 KR1020130117240A KR20130117240A KR102000264B1 KR 102000264 B1 KR102000264 B1 KR 102000264B1 KR 1020130117240 A KR1020130117240 A KR 1020130117240A KR 20130117240 A KR20130117240 A KR 20130117240A KR 102000264 B1 KR102000264 B1 KR 102000264B1
Authority
KR
South Korea
Prior art keywords
teaching data
teaching
robot
data
unit
Prior art date
Application number
KR1020130117240A
Other languages
English (en)
Other versions
KR20150038896A (ko
Inventor
이후만
김중배
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130117240A priority Critical patent/KR102000264B1/ko
Priority to US14/193,502 priority patent/US9393690B2/en
Publication of KR20150038896A publication Critical patent/KR20150038896A/ko
Application granted granted Critical
Publication of KR102000264B1 publication Critical patent/KR102000264B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Abstract

본 발명은 본 발명은 경로 계층과 태스크 계층의 교시 데이터를 입력하고, 입력된 교시 데이터를 해석하여 명령어를 생성하기 위한 것으로, 경로 계층의 교시 데이터를 입력하기 위한 제 1 입력 인터페이스와 태스크 계층의 교시 데이터를 입력하기 위한 제 2 입력 인터페이스를 포함하는 로봇의 교시 데이터 입력 장치를 제공한다.

Description

교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법{APPARATUS FOR INPUTTING TEACHING DATA AND APPARATUS AND METHOD FOR GENERATING TEACHING COMMAND OF ROBOT}
본 발명은 로봇의 교시 데이터 입력 및 명령어 생성에 관한 것으로, 더욱 상세하게는 두 가지 계층의 교시 데이터를 입력할 수 있는 장치와 이를 이용한 교시 명령어 생성 장치 및 방법에 관한 것이다.
최근 소비자들은 하나의 지능화된 기기를 통해 다양한 작업을 수행할 수 있기를 원하고 있다. 따라서, 향후 개발되는 로봇은 다양한 범주의 작업을 수행할 수 있는 능력이나, 새로운 작업을 수행하기 위한 학습 능력을 지녀야 한다. 그리고 이러한 로봇을 효율적으로 활용하기 위해, 사용자가 로봇에 명령을 전달하여 새로운 작업을 가르치거나, 수행 가능한 기존의 작업을 활용할 수 있는 간단하고 직관적인 로봇 교시 기술 개발이 필요하다.
로봇의 교시가 이루어지는 계층은 두 가지 계층으로 나눌 수 있다. 그 하나는 교시 데이터를 경로화(trajectory encoding)하여 해석하는 경로 계층의 교시이고, 다른 하나는 교시 데이터를 상징화(symbolic encoding)하여 해석하는 태스크 계층의 교시가 있다. 경로 계층은 산업용 로봇에서 많이 쓰이는데, 교시 내용을 교시 데이터와 모터 명령간의 비선형적인 사상으로 해석하여, 모터의 서브 제어기에 명령을 전달한다. 그리고 태스크 계층은 서비스용 로봇의 연구에 많이 쓰이며, 교시된 작업을 단위 행동-인지의 연속으로 나누어 해석하여, 로봇의 상위 제어기에 명령을 전달한다.
한편, 산업용 로봇은 반복적인 작업을 위한 정확한 위치, 즉 경로만을 교시하는 수준이었다. 그러나, 서비스 로봇과 같은 경우는 동적 환경에서 센서 정보에 대응하여 작업해야 하므로 그보다 한 층 추상화된 태스크 계층에서의 명령을 통해 작업이 이루어진다. 종래의 산업용 로봇의 교시는 대부분이 로봇 언어나 티칭 펜던트를 통해 경로 계층에서 이루어지고 있으나, 미래의 산업용 로봇은 다양한 상황에 적절히 대처할 수 있도록 태스크 계층의 교시가 가능하도록 해 둘 필요가 있다.
종래 산업 현장에서 사용되던 기존의 산업용 로봇은 교시 데이터 입력 장치로서 티치 펜던트를 사용하는 것이 대부분이다. 그러나 티치 펜던트의 사용은 오프라인 프로그래밍이 사전에 준비되어야 하며 오프라인 프로그래밍을 통해 로봇의 작업을 정의한 후 티치 펜던트로 필요한 위치만을 교시하는 방식이다.
그러나, 최근 업용 로봇의 역할 역시 서비스용 로봇과 마찬가지로 다각화되고 있으며 그에 따라 산업 현장에서 산업용 로봇을 손쉽게 교시할 수 있는 교시 데이터 입력 방법이 필요하다. 즉, 산업 현장에서는 오프라인 프로그래밍 전문가가 상주하는 것이 아니며, 오프라인 프로그래밍을 생략할 수 있는 직관적인 교시 데이터 입력 방법이 필요하다.
대한민국 공개특허 10-2011-0136036호에는 로봇의 교시 장치 및 방법에 대한 기술이 기재되어 있다.
본 발명은 경로 계층과 태스크 계층의 교시 데이터를 입력할 수 있는 장치를 제공한다.
또한, 본 발명은 경로 계층과 태스크 계층의 교시 데이터를 해석하여 해당 명령어를 생성할 수 있는 장치 및 방법을 제공한다.
본 발명은, 일 관점에 따르면, 경로 계층의 교시 데이터를 입력하기 위한 제 1 입력 인터페이스와 태스크 계층의 교시 데이터를 입력하기 위한 제 2 입력 인터페이스를 포함하는 로봇의 교시 데이터 입력 장치를 제공한다.
본 발명에서 상기 제 1 입력 인터페이스는, 외골격 형 하드웨어 기반 입력 인터페이스인 것을 특징으로 한다.
본 발명에서 상기 제 1 입력 인터페이스는, 사용자의 관절 회전 각도를 측정하기 위한 적어도 하나 이상의 센서와, 상기 사용자의 관절 회전 각도를 이용하여 관절 회전 각속도와 관절 회전 각가속도를 계산하기 위한 연산부와, 상기 관절 회전 각도, 상기 관절 회전 각속도 또는 상기 관절 회전 각가속도를 기반으로 상기 경로 계층의 교시 데이터를 생성하는 제 1 교시 데이터 생성부를 포함할 수 있다.
본 발명에서 상기 연산부는, 기 설정된 주기마다 상기 센서에 의해 측정된 관절의 회전 각도를 이용하여 상기 관절 회전 각속도와 상기 관절 회전 각가속도를 연산할 수 있다.
본 발명에서 상기 제 2 입력 인터페이스는, 비전 센서 기반의 입력 인터페이스인 것을 특징으로 한다.
본 발명에서 상기 제 2 입력 인터페이스는, 상기 사용자의 모션을 촬영한 이미지를 저장하는 촬영부와, 상기 저장된 이미지에서 모션을 인식하는 모션 인식부와, 상기 인식된 모션을 기반으로 태스크 계층의 교시 데이터를 생성하는 제 2 교시 데이터 생성부를 포함할 수 있다.
본 발명은, 다른 관점에 따르면, 경로 계층의 교시 데이터와 태스크 계층의 교시 데이터를 입력받는 입력부와, 상기 입력부를 통해 입력된 경로 계층의 교시 데이터 또는 상기 태스크 계층의 교시 데이터를 해석하는 교시 데이터 해석부와, 상기 교시 데이터 해석부에서 해석된 교시 데이터를 이용하여 로봇을 제어하기 위한 교시 명령어를 생성하는 교시 명령어 생성부를 포함하는 로봇의 교시 명령어 생성 장치를 제공한다.
본 발명에서 상기 교시 데이터 해석부는, 상기 태스크 계층의 교시 데이터를 기 설정된 학습 알고리즘을 통해 상기 태스크 계층의 시퀀스로 해석하는 제 1 해석부와, 상기 경로 계층의 교시 데이터를 기 설정된 알고리즘을 통해 상기 태스크 계층의 관절 공간 또는 작업 공간에서의 로봇 경로를 해석하는 제 2 해석부를 포함할 수 있다.
본 발명에서 상기 제 1 해석부는, 상기 태스크 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 상기 인코딩된 상기 태스크 계층의 교시 데이터에서 태스크 계층의 시멘틱스를 추출하며, 상기 교시 명령어 생성부는, 상기 태스크 계층의 시멘틱스를 이용하여 시멘틱 시퀀스를 생성하는 변환부와, 기 저장된 행위 데이터베이스에서 상기 시멘틱 시퀀스에 적합한 행위 시퀀스를 추출하고, 상기 추출된 행위 시퀀스를 이용하여 로봇의 태스크 시퀀스를 생성하는 태스크 시퀀스 생성부를 포함할 수 있다.
본 발명에서 상기 제 2 해석부는, 상기 경로 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 상기 인코딩된 데이터에 대한 디코딩을 수행하여 경로 정보를 생성하며, 상기 교시 명령어 생성부는, 상기 디코딩된 정보에 기 설정된 기구학 변환 알고리즘에 적용하여 경로 관절 공간 경로 정보 및 작업 공간 경로 정보를 생성할 수 있다.
본 발명은, 또 다른 관점에 따르면, 경로 계층의 교시 데이터와 태스크 계층의 교시 데이터를 입력받는 단계와, 상기 태스크 계층의 교시 데이터를 분석하여 태스크 계층의 시퀀스를 생성하는 단계와, 상기 태스크 계층의 시멘틱스를 이용하여 시멘틱 시퀀스를 생성하는 단계와, 기 저장된 행위 데이터베이스에서 상기 시멘틱 시퀀스에 적합한 행위 시퀀스를 추출하고, 상기 추출된 행위 시퀀스를 이용하여 로봇의 태스크 시퀀스를 생성하는 단계와, 상기 경로 계층의 교시 데이터를 분석하여 상기 경로 계층의 관절 공간 또는 작업 공간 경로를 생성하는 단계를 포함하는 로봇의 교시 명령어 생성 방법을 제공한다.
본 발명에서 상기 입력받는 단계는, 외골격 형 하드웨어 기반 입력 인터페이스를 통해 상기 태스크 계층의 교시 데이터를 입력받으며, 비전 센서 기반의 입력 인터페이스를 통해 상기 경로 계층의 교시 데이터를 입력받는 것을 특징으로 한다.
본 발명은 적어도 하나 이상의 센서를 구비하는 외골격 형 하드웨어 기반 입력 인터페이스를 통해 사용자의 관절 회전 각도를 제공받는 단계와, 상기 관절 회전 각도를 이용하여 관절 회전 각속도와 관절 회전 각가속도를 산출하는 단계와, 상기 관절 회전 각도, 상기 관절 회전 각속도 또는 상기 관절 회전 각가속도를 기반으로 생성된 상기 경로 계층의 교시 데이터를 입력받는 단계를 포함할 수 있다.
본 발명에서 상기 입력받는 단계는, 상기 사용자의 모션을 촬영한 이미지에서 모션을 인식하는 단계와, 상기 인식된 모션을 기반으로 생성된 상기 태스크 계층의 교시 데이터를 입력받는 단계를 포함할 수 있다.
본 발명에 따르면, 로봇의 교시를 함에 있어 경로 계층뿐만 아니라 태크스 계층도 동시에 교시함으로써, 경로 계층의 교시를 활용하여 로봇의 정확한 경로를 교시할 수 있을 뿐만 아니라, 태스크 계층의 교시를 활용하여 동적 환경에서 로봇이 작업 할 수 있도록 교시할 수 있으므로, 폭 넓은 업무에 로봇의 교시가 이루어질 수 있다.
또한, 본 발명은 외골격형 하드위에 기반 입력 인터페이스와 비전 센서 기반의 로봇의 교시를 위해 로봇 교시 시스템의 사용자가 로봇 프로그래밍을 할 필요 없이 손쉽게 교시할 수 있는 로봇 교시 데이터 입력 장치를 제안한다. 따라서, 기존에 수행되던 로봇 교시 방법인 오프라인 프로그래밍이나 티치 펜던트에 비해 직관적이고 비 전문가도 로봇 교시를 수행할 수 있도록 하는 이점이 있다. 기존 산업 현장의 작업자들 중 프로그래밍 기술을 가진 전문가가 부족함으로 인해 발생하던 불편함을 해결할 수 있다.
도 1은 본 발명의 실시 예에 따른 로봇 교시용 제어 시스템을 개념을 설명하기 위한 도면,
도 2는 본 발명의 실시 예에 따른 교시 데이터 입력 장치의 내부 구성을 도시한 블록도,
도 3은 본 발명의 실시 예에 따른 제어 장치의 세부 구성을 도시한 블록도이며,
도 4는 본 발명의 실시 예에 따른 로봇 제어 과정을 도시한 흐름도.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 대해 설명한다.
도 1은 본 발명의 실시 예에 따른 로봇 교시용 제어 시스템을 개념을 설명하기 위한 도면이다.
이에 도시된 바와 같이, 로봇 교시용 제어 시스템은 교시 데이터를 입력하기 위한 교시 데이터 입력 장치(200), 제어 장치(300) 및 로봇(400) 등을 포함할 수 있다.
교시 데이터 입력 장치(200)는 두 가지의 계층, 예컨대 태스크 계층과 경로 계층의 교시 데이터를 입력할 수 있는 인터페이스를 제공할 수 있다. 이에 대해, 도 2를 참조하여 상세하게 설명한다.
도 2는 본 발명의 실시 예에 따른 교시 데이터 입력 장치(200)의 내부 구성을 도시한 블록도이다.
이에 도시된 바와 같이, 교시 데이터 입력 장치(200)는 제 1 입력 인터페이스(210) 및 제 2 입력 인터페이스(220)를 구비할 수 있다. 이를 통해 태스크 계층 및 경로 계층의 교시가 가능한 로봇 교시용 제어 시스템을 구현할 수 있다.
이에 도시된 바와 같이, 제 1 입력 인터페이스(210)는 경로 계층의 교시 데이터를 생성하기 위한 외골격 형 하드웨어 기반 입력 인터페이스로서, 적어도 하나 이상의 센서(212), 연산부(214) 및 제 1 교시 데이터 생성부(216)를 포함할 수 있다.
센서(212)는 사용자의 신체 부착되어 사용자의 관절 회전 각도를 측정하며, 측정된 사용자의 관절 회전 각도를 연산부(214)에 제공할 수 있다.
연산부(214)는 시간에 따른 관절 회전 각도를 이용하여 관절 회전 각속도와 관절 회전 각가속도를 계산할 수 있다.
또한, 연산부(214)는 센서(212)에 의해 측정한 상반신 관절의 회전 각도와 주기를 이용하여 상반신 관절의 회전 속도와 회전 가속도를 연산할 수 있으며, 기 설정된 주기마다 센서(212)에 의해 측정된 관절의 회전 각도를 이용하여 관절 회전 각속도와 관절 회전 각가속도를 연산할 수 있다.
제 1 교시 데이터 생성부(216)는 관절 회전 각도, 관절 회전 각속도 또는 관절 회전 각가속도를 기반으로 경로 계층의 교시 데이터를 생성할 수 있다.
제 2 입력 인터페이스(220)는 태스크 계층의 교시 데이터를 생성하기 위한 비전 센서 기반 입력 인터페이스로서, 촬영부(222), 모션 인식부(224), 제 2 교시 데이터 생성부(226) 등을 포함할 수 있다.
촬영부(222)는 사용자의 모션을 촬영한 후 이에 대응되는 이미지를 저장매체(미도시됨)에 저장할 수 있다.
모션 인식부(224)는 저장된 이미지에서 모션을 인식할 수 있으며, 제 2 교시 데이터 생성부(226)는 인식된 모션을 기반으로 태스크 계층의 교시 데이터를 생성할 수 있다.
상기의 제 1 및 제 2 입력 인터페이스(210, 220)에 의해 생성된 경로 계층의 교시 데이터 및 태스크 계층의 교시 데이터는 제어 장치(300)에 입력될 수 있다.
제어 장치(300)은 경로 계층의 교시 데이터와 태스크 계층의 교시 데이터를 해석하여 로봇(400)을 제어하기 위한 명령어를 생성할 수 있다. 이러한 제어 장치(300)의 세부 구성에 대해 도 3을 참조하여 설명한다.
도 3은 본 발명의 실시 예에 따른 제어 장치(300)의 세부 구성을 도시한 블록도이다.
이에 도시된 바와 같이, 제어 장치(300)은 교시 데이터 입력 장치(200)로부터 입력된 교시 데이터를 해석하는 제 1 및 제 2 해석부(312, 314)로 구성된 교시 데이터 해석부(310)와 해석된 교시 데이터를 기반으로 명령어를 생성하는 제 1 및 제 2 명령어 생성부(322, 324)로 구성된 교시 명령어 생성부(320)를 포함할 수 있다.
제 1 해석부(312)는 태스크 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 인코딩된 데이터에 대한 디코딩을 수행하여 태스크 정보를 생성할 수 있다. 즉, 제 1 해석부(312)는 인코딩된 데이터로부터 태스크 계층의 시멘틱스를 추출할 수 있다. 이렇게 추출된 태스크 계층의 시멘틱스는 제 1 명령어 생성부(322)에 입력될 수 있다.
제 1 명령어 생성부(322)는 변환부(330), 행위 데이터베이스(332), 태스크 시퀀스 생성부(334) 등을 포함할 수 있다.
변환부(330)는 태스크 계층의 시멘틱스를 변환하여 시멘틱 시퀀스를 생성할 수 있다.
행위 데이터베이스(332)에는 로봇(400)의 제어를 위한 적어도 하나 이상의 단위 행위와 행위들의 조합으로 구성된 데이터가 저장되어 있다. 이러한 행위 데이터베이스(332)에 저장된 데이터는 API 함수 형태로 정의되어 있으나, 이에 한정되지는 않는다.
태스크 시퀀스 생성부(334)는 행위 데이터베이스(332)의 검색을 통해 시멘틱 시퀀스에 적합한 데이터, 예컨대 행위 시퀀스를 추출하고, 추출된 데이터를 이용하여 태스크 시퀀스를 생성할 수 있다.
제 2 해석부(314)는 경로 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 인코딩된 데이터에 대한 디코딩을 수행하여 경로 정보를 생성할 수 있다. 이렇게 디코딩된 정보는 제 2 명령어 생성부(324)에 제공된다.
제 2 명령어 생성부(324)는 디코딩된 정보에 기구학 변환 알고리즘을 적용하여 관절 공간 경로 정보 및 작업 공간 경로 정보를 생성할 수 있다.
한편, 제어 장치(300)는 제 1 및 제 2 명령어 생성부(322, 324)에 의해 생성된 태스크 시퀀스, 관절 공간 경로 정보 또는 작업 공간 경로 정보를 기반으로 로봇(400)을 움직임을 제어할 수 있다.
한편, 본 발명의 실시 예에서는 교시 데이터 입력 장치(200) 및 제어 장치(300)가 별도로 구성된 것으로 예를 들어 설명하였지만, 하나의 장치로 구성되어 교시 데이터의 입력에 따라 로봇(400)을 제어할 수 있다.
상기와 같은 구성을 갖는 교시 데이터 입력 장치(200)와 제어 장치(300)를 통해 로봇(400)을 제어하는 과정에 대해 도 4를 참조하여 설명한다.
도 4는 본 발명의 실시 예에 따른 로봇 제어 과정을 도시한 흐름도이다.
이에 도시된 바와 같이, 교시 데이터가 입력되면(단계 402), 제어 장치(300)는 교시 데이터가 경로 계층의 교시 데이터인지 태스크 계층의 교시 데이터인지를 판단한다(단계 504).
단계 504의 판단 결과, 교시 데이터가 경로 계층의 교시 데이터인 경우 제어 장치(300)의 제 2 해석부(314)는 교시 데이터를 입력받은 후 경로 계층의 교시 데이터의 차원을 축소하여 인코딩을 수행(단계 506)하며, 인코딩된 데이터에 대한 디코딩을 수행하여 경로 정보를 생성한다(단계 508). 이러한 경로 정보는 제 2 명령어 생성부(324)에 제공된다.
이에 따라, 제 2 명령어 생성부(324)는 디코딩된 정보, 즉 경로 정보에 기구학 변환 알고리즘을 적용하여 관절 공간 경로 정보 및 작업 공간 경로 정보를 생성한다(단계 510).
한편, 단계 504의 판단 결과, 교시 데이터가 태스크 계층의 교시 데이터인 경우 제어 장치(300)의 제 1 해석부(312)는 교시 데이터를 입력받은 후 태스크 계층의 교시 데이터의 차원을 축소하여 인코딩을 수행(단계 512)하며, 인코딩된 데이터에 대한 디코딩을 수행하여 태스크 정보를 생성할 수 있다. 즉, 제 1 해석부(312)는 인코딩된 데이터로부터 태스크 계층의 시멘틱스를 추출한다( 단계 514).
그런 다음, 제어 장치(300)는 변환부(330)를 태스크 계층의 시멘틱스를 변환하여 시멘틱 시퀀스를 생성하고(단계 516), 태스크 시퀀스 생성부(334)를 이용하여 행위 데이터베이스(332)의 검색을 통해 시멘틱 시퀀스에 적합한 데이터를 추출하고, 추출된 데이터를 이용하여 태스크 시퀀스를 생성한다(단계 518).
제어 장치(300)는 단계 510 및 단계 518에서 생성된 관절 경로, 작업 경로 정보 및 태스크 시퀀스를 기반으로 로봇(400)의 행위, 관절, 이동 등을 제어할 수 있다.
한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.
200 : 교시 데이터 입력 장치
210 : 제 1 입력 인터페이스 212 : 센서부
214 : 연산부 216 : 제 1 교시데이터 생성부
220 : 제 2 입력 인터페이스 222 : 촬영부
224 : 모션 인식부 226 : 제 2 교시 데이터 생성부
300 : 제어 장치 310 : 교시 데이터 해석부
312, 314 : 제 1, 2 해석부 320 : 교시 명령어 생성부
322 : 제 1 명령어 생성부 324 : 제 2 명령어 생성부
330 : 변환부 332 : 행위 데이터베이스
334 : 태스크 시퀀스 생성부 400 : 로봇

Claims (14)

  1. 경로 계층의 교시 데이터를 입력하기 위한 제 1 입력 인터페이스와 태스크 계층의 교시 데이터를 입력하기 위한 제 2 입력 인터페이스를 포함하는 로봇의 교시 데이터 입력 장치에 있어서,
    경로 계층의 교시 데이터와 태스크 계층의 교시 데이터를 입력받는 입력부;
    상기 입력부를 통해 입력된 상기 경로 계층의 교시 데이터 또는 상기 태스크 계층의 교시 데이터를 해석하는 교시 데이터 해석부;로서 상기 교시 데이터 해석부의 제 1 해석부를 통해 상기 태스크 계층의 교시 데이터를 기 설정된 학습 알고리즘을 통해 상기 태스크 계층의 시퀀스로 해석하고, 상기 교시 데이터 해석부의 제 2 해석부를 통해 상기 경로 계층의 교시 데이터를 기 설정된 알고리즘을 통해 상기 태스크 계층의 관절 공간 또는 작업 공간에서의 로봇 경로로 해석하고,
    상기 교시 데이터 해석부에서 해석된 교시 데이터를 이용하여 로봇을 제어하기 위한 교시 명령어를 생성하는 교시 명령어 생성부;로서 상기 교시 명령어 생성부의 변환부를 통해 상기 태스크 계층의 시멘틱스를 이용하여 시멘틱 시퀀스를 생성하고, 상기 교시 명령어 생성부의 태스크 시퀀스 생성부를 통해 기 저장된 행위 데이터베이스에서 상기 시멘틱 시퀀스에 적합한 행위 시퀀스를 추출하고, 상기 추출된 행위 시퀀스를 이용하여 로봇의 태스크 시퀀스를 생성하되,
    상기 제 1 해석부는,
    상기 태스크 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 상기 인코딩된 상기 태스크 계층의 교시 데이터에서 상기 태스크 계층의 상기 시멘틱스를 추출하는, 로봇의 교시 데이터 입력 장치.
  2. 제 1 항에 있어서,
    상기 제 1 입력 인터페이스는, 외골격 형 하드웨어 기반 입력 인터페이스인 것을 특징으로 하는
    로봇의 교시 데이터 입력 장치.
  3. 제 1 항에 있어서,
    상기 제 1 입력 인터페이스는,
    사용자의 관절 회전 각도를 측정하기 위한 적어도 하나 이상의 센서와,
    상기 사용자의 관절 회전 각도를 이용하여 관절 회전 각속도와 관절 회전 각가속도를 계산하기 위한 연산부와,
    상기 관절 회전 각도, 상기 관절 회전 각속도 또는 상기 관절 회전 각가속도를 기반으로 상기 경로 계층의 교시 데이터를 생성하는 제 1 교시 데이터 생성부를 포함하는
    로봇의 교시 데이터 입력 장치.
  4. 제 3 항에 있어서,
    상기 연산부는, 기 설정된 주기마다 상기 센서에 의해 측정된 관절의 회전 각도를 이용하여 상기 관절 회전 각속도와 상기 관절 회전 각가속도를 연산하는
    로봇의 교시 데이터 입력 장치.
  5. 제 1 항에 있어서,
    상기 제 2 입력 인터페이스는, 비전 센서 기반의 입력 인터페이스인 것을 특징으로 하는
    로봇의 교시 데이터 입력 장치.
  6. 제 1 항에 있어서,
    상기 제 2 입력 인터페이스는,
    사용자의 모션을 촬영한 이미지를 저장하는 촬영부와,
    상기 저장된 이미지에서 모션을 인식하는 모션 인식부와,
    상기 인식된 모션을 기반으로 태스크 계층의 교시 데이터를 생성하는 제 2 교시 데이터 생성부를 포함하는
    로봇의 교시 데이터 입력 장치.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제 1 항에 있어서,
    상기 제 2 해석부는,
    상기 경로 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 상기 인코딩된 데이터에 대한 디코딩을 수행하여 경로 정보를 생성하며,
    상기 교시 명령어 생성부는,
    상기 디코딩된 정보에 기 설정된 기구학 변환 알고리즘에 적용하여 경로 관절 공간 경로 정보 및 작업 공간 경로 정보를 생성하는
    로봇의 교시 데이터 입력 장치.
  11. 로봇의 교시 명령어 생성 방법에 있어서,
    입력부를 통해 경로 계층의 교시 데이터와 태스크 계층의 교시 데이터를 입력받는 단계;
    교시 데이터 해석부를 통해 상기 입력된 상기 경로 계층의 교시 데이터 또는 상기 태스크 계층의 교시 데이터를 해석하는 단계;로서 상기 교시 데이터 해석부의 제 1 해석부를 통해 상기 태스크 계층의 교시 데이터를 기 설정된 학습 알고리즘을 통해 상기 태스크 계층의 시퀀스로 해석하고, 상기 교시 데이터 해석부의 제 2 해석부를 통해 상기 경로 계층의 교시 데이터를 기 설정된 알고리즘을 통해 상기 태스크 계층의 관절 공간 또는 작업 공간에서의 로봇 경로로 해석하고, 및
    교시 명령어 생성부를 통해 상기 해석된 교시 데이터를 이용하여 로봇을 제어하기 위한 교시 명령어를 생성하는 단계;로서 상기 교시 명령어 생성부의 변환부를 통해 상기 태스크 계층의 시멘틱스를 이용하여 시멘틱 시퀀스를 생성하고, 상기 교시 명령어 생성부의 태스크 시퀀스 생성부를 통해 기 저장된 행위 데이터베이스에서 상기 시멘틱 시퀀스에 적합한 행위 시퀀스를 추출하고, 상기 추출된 행위 시퀀스를 이용하여 로봇의 태스크 시퀀스를 생성하되,
    상기 제 1 해석부는,
    상기 태스크 계층의 교시 데이터의 차원을 축소한 후 데이터 인코딩을 수행하며, 상기 인코딩된 상기 태스크 계층의 교시 데이터에서 상기 태스크 계층의 상기 시멘틱스를 추출하는, 로봇의 교시 명령어 생성 방법.
  12. 제 11 항에 있어서,
    상기 입력받는 단계는, 외골격 형 하드웨어 기반 입력 인터페이스를 통해 상기 태스크 계층의 교시 데이터를 입력받으며, 비전 센서 기반의 입력 인터페이스를 통해 상기 경로 계층의 교시 데이터를 입력받는 것을 특징으로 하는
    로봇의 교시 명령어 생성 방법.
  13. 제 12 항에 있어서,
    적어도 하나 이상의 센서를 구비하는 외골격 형 하드웨어 기반 입력 인터페이스를 통해 사용자의 관절 회전 각도를 제공받는 단계와,
    상기 관절 회전 각도를 이용하여 관절 회전 각속도와 관절 회전 각가속도를 산출하는 단계와,
    상기 관절 회전 각도, 상기 관절 회전 각속도 또는 상기 관절 회전 각가속도를 기반으로 생성된 상기 경로 계층의 교시 데이터를 입력받는 단계를 포함하는
    로봇의 교시 명령어 생성 방법.
  14. 제 13 항에 있어서,
    상기 입력받는 단계는,
    상기 사용자의 모션을 촬영한 이미지에서 모션을 인식하는 단계와,
    상기 인식된 모션을 기반으로 생성된 상기 태스크 계층의 교시 데이터를 입력받는 단계를 포함하는
    로봇의 교시 명령어 생성 방법.
KR1020130117240A 2013-10-01 2013-10-01 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법 KR102000264B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130117240A KR102000264B1 (ko) 2013-10-01 2013-10-01 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법
US14/193,502 US9393690B2 (en) 2013-10-01 2014-02-28 Apparatus for inputting teaching data and apparatus and method for generating teaching command for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130117240A KR102000264B1 (ko) 2013-10-01 2013-10-01 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20150038896A KR20150038896A (ko) 2015-04-09
KR102000264B1 true KR102000264B1 (ko) 2019-07-15

Family

ID=52740908

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130117240A KR102000264B1 (ko) 2013-10-01 2013-10-01 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법

Country Status (2)

Country Link
US (1) US9393690B2 (ko)
KR (1) KR102000264B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9701018B2 (en) * 2014-04-01 2017-07-11 Bot & Dolly, Llc Software interface for authoring robotic manufacturing process
CN105666497A (zh) * 2016-04-21 2016-06-15 奇弩(北京)科技有限公司 一种具有手势学习功能的通用机械臂
CN108724193B (zh) * 2018-06-29 2021-04-27 南京航空航天大学 一种多关节仿生机器人控制系统
WO2023177131A1 (ko) * 2022-03-15 2023-09-21 네이버랩스 주식회사 로봇 스킬 학습을 위한 방법, 컴퓨터 시스템, 및 컴퓨터 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070255454A1 (en) * 2006-04-27 2007-11-01 Honda Motor Co., Ltd. Control Of Robots From Human Motion Descriptors
US20120056800A1 (en) * 2010-09-07 2012-03-08 Microsoft Corporation System for fast, probabilistic skeletal tracking

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1257294B (it) * 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
JPH07299773A (ja) * 1994-04-28 1995-11-14 Nec Corp 身体の動作再現装置
US5982389A (en) * 1996-06-17 1999-11-09 Microsoft Corporation Generating optimized motion transitions for computer animated objects
WO2004096502A1 (en) * 2003-04-28 2004-11-11 Stephen James Crampton Cmm arm with exoskeleton
JP4878842B2 (ja) * 2003-11-13 2012-02-15 独立行政法人科学技術振興機構 ロボットの駆動方法
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20080009771A1 (en) * 2006-03-29 2008-01-10 Joel Perry Exoskeleton
US7731670B2 (en) * 2007-02-02 2010-06-08 Honda Motor Co., Ltd. Controller for an assistive exoskeleton based on active impedance
GB0707720D0 (en) * 2007-04-23 2007-05-30 Renishaw Plc Apparatus and method for controlling or programming a measurement routine
US8428781B2 (en) * 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
JP5491731B2 (ja) 2008-12-25 2014-05-14 川崎重工業株式会社 ロボット、及びロボットの教示位置の直進開始位置の較正方法
KR101103852B1 (ko) 2009-11-25 2012-01-10 성균관대학교산학협력단 실시간 휴머노이드 제어 시스템 및 그 제어 방법
KR101204086B1 (ko) 2010-05-14 2012-11-22 조선대학교산학협력단 이동 로봇의 자율 주행 방법 및 자율 주행 장치
KR20110136036A (ko) 2010-06-14 2011-12-21 대우조선해양 주식회사 로봇 교시 장치 및 방법
JP5490080B2 (ja) * 2011-12-06 2014-05-14 株式会社セルシス スケルトンモデルの姿勢制御方法,及びプログラム
US8996177B2 (en) * 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
KR20140119568A (ko) 2013-04-01 2014-10-10 한국전자통신연구원 로봇 교시용 제어 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070255454A1 (en) * 2006-04-27 2007-11-01 Honda Motor Co., Ltd. Control Of Robots From Human Motion Descriptors
US20120056800A1 (en) * 2010-09-07 2012-03-08 Microsoft Corporation System for fast, probabilistic skeletal tracking

Also Published As

Publication number Publication date
US20150094853A1 (en) 2015-04-02
KR20150038896A (ko) 2015-04-09
US9393690B2 (en) 2016-07-19

Similar Documents

Publication Publication Date Title
Garcia et al. A human-in-the-loop cyber-physical system for collaborative assembly in smart manufacturing
AU2015248710B2 (en) Omnidirectional wheeled humanoid robot based on a linear predictive position and velocity controller
Maeda et al. Learning interaction for collaborative tasks with probabilistic movement primitives
AU2015248711B2 (en) Omnidirectional wheeled humanoid robot based on a linear predictive position and velocity controller
Tsarouchi et al. High level robot programming using body and hand gestures
Forbes et al. Robot programming by demonstration with situated spatial language understanding
Iba et al. An architecture for gesture-based control of mobile robots
Wallhoff et al. A skill-based approach towards hybrid assembly
KR102000264B1 (ko) 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법
Randelli et al. Knowledge acquisition through human–robot multimodal interaction
Mead et al. A probabilistic framework for autonomous proxemic control in situated and mobile human-robot interaction
Maurtua et al. FourByThree: Imagine humans and robots working hand in hand
Chivarov et al. Case study on human-robot interaction of the remote-controlled service robot for elderly and disabled care
Iba et al. Intention aware interactive multi-modal robot programming
Zaeh et al. A model for adaptively generating assembly instructions using state-based graphs
Das et al. GeroSim: A simulation framework for gesture driven robotic arm control using Intel RealSense
Zhang et al. A feasibility study on an intuitive teleoperation system combining IMU with sEMG sensors
Ben Amor et al. Special issue on autonomous grasping and manipulation
KR20140119568A (ko) 로봇 교시용 제어 시스템 및 방법
Abascal Users with disabilities: maximum control with minimum effort
Coupeté et al. Recognition of technical gestures for human-robot collaboration in factories
Li et al. Guest editorial for special issue on human-centered intelligent robots: issues and challenges
Sofge et al. Human-robot collaboration and cognition with an autonomous mobile robot
Balzano et al. Mandri: a new proposal of manus VR facility integration in everyday car driving
Patel Human robot interaction with cloud assisted voice control and vision system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant