KR20220067973A - 인공지능 로봇 교육 장치 및 그 제어 방법 - Google Patents
인공지능 로봇 교육 장치 및 그 제어 방법 Download PDFInfo
- Publication number
- KR20220067973A KR20220067973A KR1020200154808A KR20200154808A KR20220067973A KR 20220067973 A KR20220067973 A KR 20220067973A KR 1020200154808 A KR1020200154808 A KR 1020200154808A KR 20200154808 A KR20200154808 A KR 20200154808A KR 20220067973 A KR20220067973 A KR 20220067973A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- target
- joint
- artificial intelligence
- user terminal
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/0053—Computers, e.g. programming
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Computer Hardware Design (AREA)
- Educational Technology (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Fuzzy Systems (AREA)
- Manipulator (AREA)
Abstract
본 발명은 관절로봇 제어 기술에 관한 것으로서, 상세하게는 다관절 로봇을 제어할 수 있는 인공지능 기반 모델링을 통해 복잡한 수학 없이도 다관절 로봇 제어를 실연하고 학생들에게 교육할 수 있는 인공지능 로봇 교육 장치 및 그 제어 방법에 관한 것이다.
이를 위해, 본 발명에 따른 인공지능 로봇 교육 장치는 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과, 상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과, 상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함한다.
이를 위해, 본 발명에 따른 인공지능 로봇 교육 장치는 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과, 상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과, 상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함한다.
Description
본 발명은 관절로봇 제어 기술에 관한 것으로서, 상세하게는 다관절 로봇을 제어할 수 있는 인공지능 기반 모델링을 통해 복잡한 수학 없이도 다관절 로봇 제어를 실연하고 다관절 로봇을 학생들에게 교육할 수 있는 인공지능 로봇 교육 장치 및 그 제어 방법에 관한 것이다.
수직 다관절 로봇을 제어한다는 것은 공간상에서 말단(end-effector)의 위치를 제어하는 것을 말한다. 목표위치(x,y,z)에 도달할 수 있게 하기 위해 역기구학(Inverse Kinematics)을 해석하여 로봇 관절의 각도(θ1,θ2,θ3, ...)를 계산해야 한다. 이러한 과정을 다관절 로봇의 제어를 위한 모델링이라고 한다,
그러나 이러한 과정은 복잡도가 매우 높아 일반 대학생도 풀기 어렵기 때문에 관절 로봇을 초중고 학생에게 교육한다는 것은 매우 어려운 일이다.
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 목적은 복잡한 수학 없이도 학생들에게 관절 로봇의 제어를 실연하고 교육할 수 있도록 하는 것이다.
이를 위해, 본 발명에 따른 인공지능 로봇 교육 장치는 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과, 상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과, 상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함한다.
여기서, 상기 제1 관절로봇, 상기 제2 관절로봇 및 상기 팬 틸트 카메라 로봇은 조립형 블록 플레이트에 설치 가능하여, 상기 조립형 블록 플레이트에서 각 로봇의 배치 위치를 다르게 할 수 있는 것을 특징으로 한다.
또한, 본 발명에 따른 인공지능 로봇 교육 장치의 관절로봇 제어 방법은 로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와, 목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와, 목표 경로 값을 입력받으면 상기 학습된 DNN 모델을 이용해 관절로봇의 동작을 제어하는 단계를 포함한다.
또한, 본 발명에 따른 인공지능 로봇 교육 장치의 관절로봇 제어 방법은 로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와, 목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와, 상기 관절로봇의 동작 범위 영역에 있는 타겟을 촬영한 타겟 영상을 입력받는 단계와, 상기 타겟 영상을 분석하여 상기 타겟 영상 내의 목표 지점 값을 산출하는 단계와, 상기 목표 지점 값을 상기 학습된 DNN 모델에 입력하고 상기 학습된 DNN 모델을 분석하여 관절로봇의 동작을 제어하는 단계를 포함한다.
상술한 바와 같이, 본 발명은 역기구학(inverse kinematics)에 의한 복잡한 수학식을 계산하지 않아도 지도학습 기반 모델링을 통해 관절 로봇의 끝점(end-effector)을 원하는 위치로 제어할 수 있어서 학생들에게 쉽고 간단하게 관절 로봇의 제어를 실연하고 교육할 수 있는 효과가 있다.
또한, 관절 로봇 제어를 위한 딥러닝에서는 학습 데이터를 확보하는 것이 매우 중요하고 어려운 과정이지만, 본 발명에 따른 인공지능 로봇 교육 장치는 순기구학(forward kinematics) 해석을 통해 교육용으로 충분히 활용 가능한 학습 데이터를 쉽고 빠르게 생성할 수 있는 효과가 있다.
도 1은 본 발명에 따른 인공지능 로봇 교육 장치를 구성하는 로봇을 나타낸 도면.
도 2는 본 발명에 따른 인공지능 로봇 교육 장치를 나타낸 도면.
도 3은 본 발명에 따른 인공지능 로봇 교육 장치의 제1 관절로봇를 제어하는 과정을 나타낸 도면.
도 4는 본 발명에 따른 인공지능 로봇 교육 장치의 제2 관절로봇을 제어하는 과정을 나타낸 도면.
도 2는 본 발명에 따른 인공지능 로봇 교육 장치를 나타낸 도면.
도 3은 본 발명에 따른 인공지능 로봇 교육 장치의 제1 관절로봇를 제어하는 과정을 나타낸 도면.
도 4는 본 발명에 따른 인공지능 로봇 교육 장치의 제2 관절로봇을 제어하는 과정을 나타낸 도면.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "……부", "…… 모듈" 의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이하, 도면을 참조로 하여 본 발명의 실시예에 따른 인공지능 로봇 교육 장치 및 그 제어 방법에 대하여 상세히 설명한다.
도 1은 본 발명에 따른 인공지능 로봇 교육 장치를 구성하는 로봇을 나타내고, 도 2는 본 발명에 따른 인공지능 로봇 교육 장치를 나타낸 것이다.
도 1을 참조하면, (a)는 펜(pen)을 잡고 사용자가 지정한 글자나 그림을 쓰거나 그릴 수 있는 관절 로봇이고, (b)는 임의의 위치에 놓여 있는 오브젝트(공, 주사위 등)를 집어 올릴 수 있는 관절 로봇이고, (c)는 타겟 위치로 이동하여 타겟을 촬영할 수 있는 팬 틸트(pan-tilt) 카메라 로봇이다.
설명의 편의상, (a)의 펜 그립퍼(pen gripper) 관절 로봇을 제1 관절 로봇으로, (b)의 그립퍼(gripper) 관절 로봇을 제2 관절 로봇으로 호칭한다.
제1 관절 로봇 및 제2 관절 로봇은 모두 3축 관절 로봇으로서, 제1 관절 로봇의 말단에는 펜 그립퍼가 장착되어 있고, 제2 관절 로봇의 말단에는 그립퍼가 장착되어 있으나, 그 말단에는 다양한 말단장치가 장착될 수 있다. 예를 들어, 관절 로봇의 말단에 실로폰을 치기 위한 실로폰 채가 장착될 수 있다.
(c)의 팬 틸트 카메라 로봇은 2축 관절 로봇으로서, 스테레오 카메라(3), 밝기 센서(4), LED 디스플레이(5) 등을 구비하고 있다.
팬 틸트 카메라 로봇은 스테레오 카메라(3)를 이용해 제2 관절 로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 획득한다. 팬 틸트 카메라 로봇은 밝기 센서(4)를 통해 주변 밝기를 감지해 스테레오 카메라(3)의 촬영 설정값을 변경하고, LED 디스플레이(5)를 통해 동작 상태를 표시한다.
도 1에 도시된 제1 관절 로봇, 제2 관절 로봇 및 팬 틸트 카메라 로봇은 조립형 블록 플레이트(10)에 설치 가능하다. 조립형 블록 플레이트(10)의 임의의 위치에 각 로봇의 베이스를 끼워 설치할 수 있기 때문에, 각 로봇의 상호 배치 관계를 다양하게 할 수 있다.
도 2를 참조하면, 제1 관절 로봇(20), 제2 관절 로봇(30) 및 팬 틸트 카메라 로봇(40)이 조립형 블록 플레이트(10)에 설치된 상태로 서로 배치되어 본 발명에 따른 인공지능 로봇 교육 장치를 구성하고 있다.
제1 관절 로봇(20), 제2 관절 로봇(30) 및 팬 틸트 카메라 로봇(40)은 각각 사용자 단말(100)에 연결되어 있다. 사용자 단말(100)은 각 로봇(20, 30, 40)과 통신하면서 각 로봇의 동작을 제어한다.
사용자 단말(100)은 학습 데이터를 이용해 DNN(Deep Neural Network) 모델을 학습시키고, 학습된 DNN 모델을 이용해 제1 관절 로봇(20) 및 제2 관절 로봇(30)의 동작을 제어한다. 설명의 편의상, 제1 관절 로봇(20)의 동작 제어에 사용되는 DNN 모델을 제1 DNN 모델로, 제2 관절 로봇(30)의 동작 제어에 사용되는 DNN 모델을 제2 DNN 모델로 호칭한다.
사용자 단말(100)은 목표 경로 값을 입력받아 사전 학습된 제1 DNN 모델에 따라 제1 관절 로봇(20)의 동작을 제어한다. 제1 DNN 모델의 출력 값에 따라 관절각도가 결정되고, 제1 관절 로봇(20)이 결정된 관절각도에 따라 움직이면서 펜 그립퍼(1)에 삽입된 펜(6)이 보드(7) 상에 목표 경로 값에 따른 글자나 그림을 쓰거나 그리게 된다.
또한, 사용자 단말(100)은 팬 틸트 카메라 로봇(40)으로부터 타겟 영상을 수신하여 목표 지점 값을 산출하고, 목표 지점 값을 사전 학습된 제2 DNN 모델에 입력하여 제2 DNN 모델의 출력 값을 이용해 제2 관절 로봇(30)의 동작을 제어한다.
즉, 제2 DNN 모델의 출력 값에 따라 관절각도가 결정되고, 제2 관절 로봇(30)이 결정된 관절각도에 따라 움직이면서 그립퍼(2)가 목표 지점 값에 위치한 오브젝트(8)를 집어 올리게 된다.
본 발명에 따른 사용자 단말(100)은 퍼스널 컴퓨터, 노트북 등이 될 수 있으나, 이에 한정되는 것은 아니며 각 로봇과 데이터 통신을 수행하며 딥러닝 알고리즘을 실행할 수 있는 장치라면 어떠한 종류의 기기라도 가능하다.
도 3은 본 발명에 따른 인공지능 로봇 교육 장치의 제1 관절 로봇를 제어하는 과정을 나타낸 것이다.
도 3을 참조하면, 먼저 본 발명에 따른 제1 관절 로봇(20)을 제어하기 위해서는 제1 관절 로봇(20)의 동작 제어에 사용되는 제1 DNN 모델을 생성하는 과정이 필요하다. 제1 DNN 모델을 생성하는 과정은 학습 데이터 생성 단계(S10) 및 제1 DNN 모델 학습 단계(S12)로 구성된다.
학습 데이터 생성 단계(S10)
DNN(Deep Neural Network) 모델 학습을 위한 학습 데이터의 경우 일반적으로 자연 발생적인 데이터(이미지, 음성 등)를 매우 많이 준비해야 하지만, 본 발명의 실시예에서는 로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 쉽고 빠르게 충분한 양의 학습 데이터를 생성할 수 있다.
즉, 순기구학 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 구할 수 있어서, 목표 위치 좌표(입력 데이터) 및 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 생성할 수 있다.
제1 DNN 모델 학습 단계(S12)
관절 로봇을 회전이 없는 3축으로 가정하여, 입력 노드(input node) 3개, 출력 노드(output node) 3개, 은닉층(hidden layer) 1~2개, 은닉층의 노드 20~100개 정도로 DNN 구조를 만든 후 학습 데이터 셋으로 학습시켜 DNM 모델을 생성한다.
이와 같이, 학습 데이터 생성 단계(S10) 및 제1 DNN 모델 학습 단계(S12)를 통해 제1 DNN 모델이 생성되면, 제1 DNN 모델을 제1 관절 로봇(20)의 제어에 사용한다.
목표 경로 지정 단계(S14)
사용자 단말(100)에 목표 경로 값을 입력하면, 사용자 단말(100)은 목표 경로 값을 제1 DNN 모델에 넣어 제1 관절 로봇(20)의 관절 각도 값을 출력한다. 목표 경로 값이란 제1 관절 로봇(20)의 펜 그립퍼(1)에 삽입된 펜(6)이 보드(7) 상에 그리는 글자 또는 그림의 궤적 좌표를 의미한다.
본 발명의 실시예에서, 사용자 단말(100)에 입력장치(마우스)를 통해 글자 또는 그림을 입력하게 되면, 입력된 글자 또는 그림의 궤적에 따른 좌표값이 자동 생성된다.
제1 관절 로봇 동작 단계(S16)
사용자 단말(100)은 제1 DNN 모델로부터 출력되는 관절 각도 값을 이용해 제1 관절 로봇(20)의 동작을 제어한다. 제1 관절 로봇(20)은 사용자 단말(100)로부터 관절 각도 값에 따른 제어신호를 수신하여 3축 관절의 각도를 변화시켜 이동하면서 목표 경로 값에 대응하는 글자나 그림을 보드 상에 쓰거나 그리게 된다.
도 4는 본 발명에 따른 인공지능 로봇 교육 장치의 제2 관절 로봇을 제어하는 과정을 나타낸 것이다.
도 4를 참조하면, 먼저 본 발명에 따른 제2 관절 로봇(30)을 제어하기 위해서는 제2 관절 로봇(30)의 동작 제어에 사용되는 제2 DNN 모델을 생성하는 과정이 필요하다. 제2 DNN 모델을 생성하는 과정은 학습 데이터 생성 단계(S20) 및 제2 DNN 모델 학습 단계(S22)로 구성된다.
학습 데이터 생성 단계(S20) 및 제2 DNN 모델 학습 단계(S22)은 도 3의 학습 데이터 생성 단계(S10) 및 제1 DNN 모델 학습 단계(S12)와 동일하므로 생략한다.
학습 데이터 생성 단계(S20) 및 제2 DNN 모델 학습 단계(S22)를 통해 제2 DNN 모델이 생성되면, 제2 DNN 모델을 제2 관절 로봇(30)의 제어에 사용한다.
한편, 사용자 단말(100)은 팬 틸트 카메라 로봇(40)의 동작을 제어하여 팬 틸트 카메라 로봇(40)이 제2 관절 로봇(30)의 동작 범위 영역에 있는 타겟을 촬영하도록 한다. 팬 틸트 카메라 로봇(40)은 사용자 단말(100)의 제어신호에 따라 2축 관절의 각도를 변화시켜 이동한 후 타겟 영상을 촬영한다(S24).
사용자 단말(100)은 팬 틸트 카메라 로봇(40)으로부터 타겟 영상을 수신하여 타겟 영상을 분석한다(S26). 사용자 단말(100)은 영상 인식 소프트웨어를 이용해 타겟 영상 내의 오브젝트를 식별하고, 식별한 오브젝트의 위치 좌표 값인 목표 지점 값을 산출한다(S28).
사용자 단말(100)은 목표 지점 값을 제2 DNN 모델에 입력하고 제2 DNN 모델로부터 출력되는 관절 각도 값을 이용해 제2 관절 로봇(30)의 동작을 제어한다(S30). 제2 관절 로봇(30)은 사용자 단말(100)로부터 관절 각도 값에 따른 제어신호를 수신하여 3축 관절의 각도를 변화시켜 이동하면서 그립퍼를 통해 목표 지점 값에 위치하는 오브젝트를 집어 올리게 된다.
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
1: 펜 그립퍼
2: 그립퍼
3: 스테레오 카메라 4: 밝기 센서
5: LED 디스플레이 6: 펜
7: 보드 8: 오브젝트
10: 조립형 블록 플레이트 20: 제1 관절 로봇
30: 제2 관절 로봇 40: 팬 틸트 카메라 로봇
100: 사용자 단말
3: 스테레오 카메라 4: 밝기 센서
5: LED 디스플레이 6: 펜
7: 보드 8: 오브젝트
10: 조립형 블록 플레이트 20: 제1 관절 로봇
30: 제2 관절 로봇 40: 팬 틸트 카메라 로봇
100: 사용자 단말
Claims (4)
- 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과,
상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과,
상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함하는 인공지능 로봇 교육 장치. - 제1항에 있어서,
상기 제1 관절로봇, 상기 제2 관절로봇 및 상기 팬 틸트 카메라 로봇은 조립형 블록 플레이트에 설치 가능하여, 상기 조립형 블록 플레이트에서 각 로봇의 배치 위치를 다르게 할 수 있는 것을 특징으로 하는 인공지능 로봇 교육 장치. - 인공지능 로봇 교육 장치의 관절로봇 제어 방법에 있어서,
로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와,
목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와,
목표 경로 값을 입력받으면 상기 학습된 DNN 모델을 이용해 관절로봇의 동작을 제어하는 단계를 포함하는 방법. - 인공지능 로봇 교육 장치에서 수행되는 관절로봇 제어 방법에 있어서,
로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와,
목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와,
상기 관절로봇의 동작 범위 영역에 있는 타겟을 촬영한 타겟 영상을 입력받는 단계와,
상기 타겟 영상을 분석하여 상기 타겟 영상 내의 목표 지점 값을 산출하는 단계와,
상기 목표 지점 값을 상기 학습된 DNN 모델에 입력하고 상기 학습된 DNN 모델을 분석하여 관절로봇의 동작을 제어하는 단계를 포함하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200154808A KR102422762B1 (ko) | 2020-11-18 | 2020-11-18 | 인공지능 로봇 교육 장치 및 그 제어 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200154808A KR102422762B1 (ko) | 2020-11-18 | 2020-11-18 | 인공지능 로봇 교육 장치 및 그 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220067973A true KR20220067973A (ko) | 2022-05-25 |
KR102422762B1 KR102422762B1 (ko) | 2022-07-20 |
Family
ID=81797239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200154808A KR102422762B1 (ko) | 2020-11-18 | 2020-11-18 | 인공지능 로봇 교육 장치 및 그 제어 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102422762B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102653745B1 (ko) * | 2023-06-02 | 2024-04-02 | 라이프앤사이언스주식회사 | 최적화된 연산속도를 가지는 교육용 로봇제어기 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200423032Y1 (ko) * | 2006-03-23 | 2006-08-02 | (학)창성학원 | Pc 기반의 교육용 휴머노이드 로봇 플랫폼 |
KR20090011334U (ko) * | 2008-05-02 | 2009-11-05 | 주식회사 한백전자 | 학습용 휴머노이드로봇모듈키트 |
KR20180127590A (ko) * | 2017-05-18 | 2018-11-29 | 성한별 | 기계학습과 제어기를 탑재한 교육용 머니퓰레이터 |
KR101980603B1 (ko) | 2016-05-20 | 2019-05-22 | 구글 엘엘씨 | 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치 |
KR20200061900A (ko) * | 2018-11-26 | 2020-06-03 | 전자부품연구원 | 로봇피부를 이용한 충돌감지 시스템 및 방법 |
KR20200099896A (ko) * | 2019-02-15 | 2020-08-25 | 한양대학교 에리카산학협력단 | 인공지능 학습이 가능한 교육용로봇 제어모듈 |
-
2020
- 2020-11-18 KR KR1020200154808A patent/KR102422762B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200423032Y1 (ko) * | 2006-03-23 | 2006-08-02 | (학)창성학원 | Pc 기반의 교육용 휴머노이드 로봇 플랫폼 |
KR20090011334U (ko) * | 2008-05-02 | 2009-11-05 | 주식회사 한백전자 | 학습용 휴머노이드로봇모듈키트 |
KR101980603B1 (ko) | 2016-05-20 | 2019-05-22 | 구글 엘엘씨 | 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치 |
KR20180127590A (ko) * | 2017-05-18 | 2018-11-29 | 성한별 | 기계학습과 제어기를 탑재한 교육용 머니퓰레이터 |
KR20200061900A (ko) * | 2018-11-26 | 2020-06-03 | 전자부품연구원 | 로봇피부를 이용한 충돌감지 시스템 및 방법 |
KR20200099896A (ko) * | 2019-02-15 | 2020-08-25 | 한양대학교 에리카산학협력단 | 인공지능 학습이 가능한 교육용로봇 제어모듈 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102653745B1 (ko) * | 2023-06-02 | 2024-04-02 | 라이프앤사이언스주식회사 | 최적화된 연산속도를 가지는 교육용 로봇제어기 |
Also Published As
Publication number | Publication date |
---|---|
KR102422762B1 (ko) | 2022-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hood et al. | When children teach a robot to write: An autonomous teachable humanoid which uses simulated handwriting | |
Lathuilière et al. | Neural network based reinforcement learning for audio–visual gaze control in human–robot interaction | |
Ott et al. | A humanoid two-arm system for dexterous manipulation | |
CN109590986B (zh) | 机器人教学方法、智能机器人和存储介质 | |
Lee et al. | Incremental motion primitive learning by physical coaching using impedance control | |
Li et al. | Survey on mapping human hand motion to robotic hands for teleoperation | |
JP4463120B2 (ja) | 身まねロボットシステムとその身まね動作制御方法 | |
Jiang et al. | Indirect iterative learning control for a discrete visual servo without a camera-robot model | |
Zeng et al. | A unified parametric representation for robotic compliant skills with adaptation of impedance and force | |
CN113664835B (zh) | 机器人自动手眼标定方法与系统 | |
Ewerton et al. | Incremental imitation learning of context-dependent motor skills | |
KR102422762B1 (ko) | 인공지능 로봇 교육 장치 및 그 제어 방법 | |
Ovur et al. | Naturalistic robot-to-human bimanual handover in complex environments through multi-sensor fusion | |
Bang et al. | A three-degree-of-freedom anthropomorphic oculomotor simulator | |
Edwards et al. | Cross-domain perceptual reward functions | |
Calvo-Varela et al. | Development of a Nao humanoid robot able to play Tic-Tac-Toe game on a tactile tablet | |
US20220032468A1 (en) | Robotic drawing | |
JP2021529674A (ja) | 1つ以上のロボット相互参照パラグラフの自然タスクのためのシステム及び方法 | |
Lee et al. | Mimetic communication with impedance control for physical human-robot interaction | |
Boroujeni et al. | Haptic device application in persian calligraphy | |
Solis et al. | An underwater simulation server oriented to cooperative robotic interventions: The educational approach | |
Muis et al. | Realistic human motion preservation-imitation development on robot with kinect | |
Bruno et al. | Null space redundancy learning for a flexible surgical robot | |
Silva et al. | Aros: An anthropomorphic robot for human-robot interaction and coordination studies | |
Kubota et al. | Intelligent technologies for edutainment using multiple robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |