KR20220067973A - 인공지능 로봇 교육 장치 및 그 제어 방법 - Google Patents

인공지능 로봇 교육 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20220067973A
KR20220067973A KR1020200154808A KR20200154808A KR20220067973A KR 20220067973 A KR20220067973 A KR 20220067973A KR 1020200154808 A KR1020200154808 A KR 1020200154808A KR 20200154808 A KR20200154808 A KR 20200154808A KR 20220067973 A KR20220067973 A KR 20220067973A
Authority
KR
South Korea
Prior art keywords
robot
target
joint
artificial intelligence
user terminal
Prior art date
Application number
KR1020200154808A
Other languages
English (en)
Other versions
KR102422762B1 (ko
Inventor
이원용
Original Assignee
지니주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지니주식회사 filed Critical 지니주식회사
Priority to KR1020200154808A priority Critical patent/KR102422762B1/ko
Publication of KR20220067973A publication Critical patent/KR20220067973A/ko
Application granted granted Critical
Publication of KR102422762B1 publication Critical patent/KR102422762B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0053Computers, e.g. programming
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 관절로봇 제어 기술에 관한 것으로서, 상세하게는 다관절 로봇을 제어할 수 있는 인공지능 기반 모델링을 통해 복잡한 수학 없이도 다관절 로봇 제어를 실연하고 학생들에게 교육할 수 있는 인공지능 로봇 교육 장치 및 그 제어 방법에 관한 것이다.
이를 위해, 본 발명에 따른 인공지능 로봇 교육 장치는 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과, 상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과, 상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함한다.

Description

인공지능 로봇 교육 장치 및 그 제어 방법{Artificial Intelligence robot teaching apparatus and its control method}
본 발명은 관절로봇 제어 기술에 관한 것으로서, 상세하게는 다관절 로봇을 제어할 수 있는 인공지능 기반 모델링을 통해 복잡한 수학 없이도 다관절 로봇 제어를 실연하고 다관절 로봇을 학생들에게 교육할 수 있는 인공지능 로봇 교육 장치 및 그 제어 방법에 관한 것이다.
수직 다관절 로봇을 제어한다는 것은 공간상에서 말단(end-effector)의 위치를 제어하는 것을 말한다. 목표위치(x,y,z)에 도달할 수 있게 하기 위해 역기구학(Inverse Kinematics)을 해석하여 로봇 관절의 각도(θ123, ...)를 계산해야 한다. 이러한 과정을 다관절 로봇의 제어를 위한 모델링이라고 한다,
그러나 이러한 과정은 복잡도가 매우 높아 일반 대학생도 풀기 어렵기 때문에 관절 로봇을 초중고 학생에게 교육한다는 것은 매우 어려운 일이다.
한국등록특허 제1980603호
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 목적은 복잡한 수학 없이도 학생들에게 관절 로봇의 제어를 실연하고 교육할 수 있도록 하는 것이다.
이를 위해, 본 발명에 따른 인공지능 로봇 교육 장치는 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과, 상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과, 상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함한다.
여기서, 상기 제1 관절로봇, 상기 제2 관절로봇 및 상기 팬 틸트 카메라 로봇은 조립형 블록 플레이트에 설치 가능하여, 상기 조립형 블록 플레이트에서 각 로봇의 배치 위치를 다르게 할 수 있는 것을 특징으로 한다.
또한, 본 발명에 따른 인공지능 로봇 교육 장치의 관절로봇 제어 방법은 로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와, 목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와, 목표 경로 값을 입력받으면 상기 학습된 DNN 모델을 이용해 관절로봇의 동작을 제어하는 단계를 포함한다.
또한, 본 발명에 따른 인공지능 로봇 교육 장치의 관절로봇 제어 방법은 로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와, 목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와, 상기 관절로봇의 동작 범위 영역에 있는 타겟을 촬영한 타겟 영상을 입력받는 단계와, 상기 타겟 영상을 분석하여 상기 타겟 영상 내의 목표 지점 값을 산출하는 단계와, 상기 목표 지점 값을 상기 학습된 DNN 모델에 입력하고 상기 학습된 DNN 모델을 분석하여 관절로봇의 동작을 제어하는 단계를 포함한다.
상술한 바와 같이, 본 발명은 역기구학(inverse kinematics)에 의한 복잡한 수학식을 계산하지 않아도 지도학습 기반 모델링을 통해 관절 로봇의 끝점(end-effector)을 원하는 위치로 제어할 수 있어서 학생들에게 쉽고 간단하게 관절 로봇의 제어를 실연하고 교육할 수 있는 효과가 있다.
또한, 관절 로봇 제어를 위한 딥러닝에서는 학습 데이터를 확보하는 것이 매우 중요하고 어려운 과정이지만, 본 발명에 따른 인공지능 로봇 교육 장치는 순기구학(forward kinematics) 해석을 통해 교육용으로 충분히 활용 가능한 학습 데이터를 쉽고 빠르게 생성할 수 있는 효과가 있다.
도 1은 본 발명에 따른 인공지능 로봇 교육 장치를 구성하는 로봇을 나타낸 도면.
도 2는 본 발명에 따른 인공지능 로봇 교육 장치를 나타낸 도면.
도 3은 본 발명에 따른 인공지능 로봇 교육 장치의 제1 관절로봇를 제어하는 과정을 나타낸 도면.
도 4는 본 발명에 따른 인공지능 로봇 교육 장치의 제2 관절로봇을 제어하는 과정을 나타낸 도면.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "……부", "…… 모듈" 의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이하, 도면을 참조로 하여 본 발명의 실시예에 따른 인공지능 로봇 교육 장치 및 그 제어 방법에 대하여 상세히 설명한다.
도 1은 본 발명에 따른 인공지능 로봇 교육 장치를 구성하는 로봇을 나타내고, 도 2는 본 발명에 따른 인공지능 로봇 교육 장치를 나타낸 것이다.
도 1을 참조하면, (a)는 펜(pen)을 잡고 사용자가 지정한 글자나 그림을 쓰거나 그릴 수 있는 관절 로봇이고, (b)는 임의의 위치에 놓여 있는 오브젝트(공, 주사위 등)를 집어 올릴 수 있는 관절 로봇이고, (c)는 타겟 위치로 이동하여 타겟을 촬영할 수 있는 팬 틸트(pan-tilt) 카메라 로봇이다.
설명의 편의상, (a)의 펜 그립퍼(pen gripper) 관절 로봇을 제1 관절 로봇으로, (b)의 그립퍼(gripper) 관절 로봇을 제2 관절 로봇으로 호칭한다.
제1 관절 로봇 및 제2 관절 로봇은 모두 3축 관절 로봇으로서, 제1 관절 로봇의 말단에는 펜 그립퍼가 장착되어 있고, 제2 관절 로봇의 말단에는 그립퍼가 장착되어 있으나, 그 말단에는 다양한 말단장치가 장착될 수 있다. 예를 들어, 관절 로봇의 말단에 실로폰을 치기 위한 실로폰 채가 장착될 수 있다.
(c)의 팬 틸트 카메라 로봇은 2축 관절 로봇으로서, 스테레오 카메라(3), 밝기 센서(4), LED 디스플레이(5) 등을 구비하고 있다.
팬 틸트 카메라 로봇은 스테레오 카메라(3)를 이용해 제2 관절 로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 획득한다. 팬 틸트 카메라 로봇은 밝기 센서(4)를 통해 주변 밝기를 감지해 스테레오 카메라(3)의 촬영 설정값을 변경하고, LED 디스플레이(5)를 통해 동작 상태를 표시한다.
도 1에 도시된 제1 관절 로봇, 제2 관절 로봇 및 팬 틸트 카메라 로봇은 조립형 블록 플레이트(10)에 설치 가능하다. 조립형 블록 플레이트(10)의 임의의 위치에 각 로봇의 베이스를 끼워 설치할 수 있기 때문에, 각 로봇의 상호 배치 관계를 다양하게 할 수 있다.
도 2를 참조하면, 제1 관절 로봇(20), 제2 관절 로봇(30) 및 팬 틸트 카메라 로봇(40)이 조립형 블록 플레이트(10)에 설치된 상태로 서로 배치되어 본 발명에 따른 인공지능 로봇 교육 장치를 구성하고 있다.
제1 관절 로봇(20), 제2 관절 로봇(30) 및 팬 틸트 카메라 로봇(40)은 각각 사용자 단말(100)에 연결되어 있다. 사용자 단말(100)은 각 로봇(20, 30, 40)과 통신하면서 각 로봇의 동작을 제어한다.
사용자 단말(100)은 학습 데이터를 이용해 DNN(Deep Neural Network) 모델을 학습시키고, 학습된 DNN 모델을 이용해 제1 관절 로봇(20) 및 제2 관절 로봇(30)의 동작을 제어한다. 설명의 편의상, 제1 관절 로봇(20)의 동작 제어에 사용되는 DNN 모델을 제1 DNN 모델로, 제2 관절 로봇(30)의 동작 제어에 사용되는 DNN 모델을 제2 DNN 모델로 호칭한다.
사용자 단말(100)은 목표 경로 값을 입력받아 사전 학습된 제1 DNN 모델에 따라 제1 관절 로봇(20)의 동작을 제어한다. 제1 DNN 모델의 출력 값에 따라 관절각도가 결정되고, 제1 관절 로봇(20)이 결정된 관절각도에 따라 움직이면서 펜 그립퍼(1)에 삽입된 펜(6)이 보드(7) 상에 목표 경로 값에 따른 글자나 그림을 쓰거나 그리게 된다.
또한, 사용자 단말(100)은 팬 틸트 카메라 로봇(40)으로부터 타겟 영상을 수신하여 목표 지점 값을 산출하고, 목표 지점 값을 사전 학습된 제2 DNN 모델에 입력하여 제2 DNN 모델의 출력 값을 이용해 제2 관절 로봇(30)의 동작을 제어한다.
즉, 제2 DNN 모델의 출력 값에 따라 관절각도가 결정되고, 제2 관절 로봇(30)이 결정된 관절각도에 따라 움직이면서 그립퍼(2)가 목표 지점 값에 위치한 오브젝트(8)를 집어 올리게 된다.
본 발명에 따른 사용자 단말(100)은 퍼스널 컴퓨터, 노트북 등이 될 수 있으나, 이에 한정되는 것은 아니며 각 로봇과 데이터 통신을 수행하며 딥러닝 알고리즘을 실행할 수 있는 장치라면 어떠한 종류의 기기라도 가능하다.
도 3은 본 발명에 따른 인공지능 로봇 교육 장치의 제1 관절 로봇를 제어하는 과정을 나타낸 것이다.
도 3을 참조하면, 먼저 본 발명에 따른 제1 관절 로봇(20)을 제어하기 위해서는 제1 관절 로봇(20)의 동작 제어에 사용되는 제1 DNN 모델을 생성하는 과정이 필요하다. 제1 DNN 모델을 생성하는 과정은 학습 데이터 생성 단계(S10) 및 제1 DNN 모델 학습 단계(S12)로 구성된다.
학습 데이터 생성 단계(S10)
DNN(Deep Neural Network) 모델 학습을 위한 학습 데이터의 경우 일반적으로 자연 발생적인 데이터(이미지, 음성 등)를 매우 많이 준비해야 하지만, 본 발명의 실시예에서는 로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 쉽고 빠르게 충분한 양의 학습 데이터를 생성할 수 있다.
즉, 순기구학 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 구할 수 있어서, 목표 위치 좌표(입력 데이터) 및 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 생성할 수 있다.
제1 DNN 모델 학습 단계(S12)
관절 로봇을 회전이 없는 3축으로 가정하여, 입력 노드(input node) 3개, 출력 노드(output node) 3개, 은닉층(hidden layer) 1~2개, 은닉층의 노드 20~100개 정도로 DNN 구조를 만든 후 학습 데이터 셋으로 학습시켜 DNM 모델을 생성한다.
이와 같이, 학습 데이터 생성 단계(S10) 및 제1 DNN 모델 학습 단계(S12)를 통해 제1 DNN 모델이 생성되면, 제1 DNN 모델을 제1 관절 로봇(20)의 제어에 사용한다.
목표 경로 지정 단계(S14)
사용자 단말(100)에 목표 경로 값을 입력하면, 사용자 단말(100)은 목표 경로 값을 제1 DNN 모델에 넣어 제1 관절 로봇(20)의 관절 각도 값을 출력한다. 목표 경로 값이란 제1 관절 로봇(20)의 펜 그립퍼(1)에 삽입된 펜(6)이 보드(7) 상에 그리는 글자 또는 그림의 궤적 좌표를 의미한다.
본 발명의 실시예에서, 사용자 단말(100)에 입력장치(마우스)를 통해 글자 또는 그림을 입력하게 되면, 입력된 글자 또는 그림의 궤적에 따른 좌표값이 자동 생성된다.
제1 관절 로봇 동작 단계(S16)
사용자 단말(100)은 제1 DNN 모델로부터 출력되는 관절 각도 값을 이용해 제1 관절 로봇(20)의 동작을 제어한다. 제1 관절 로봇(20)은 사용자 단말(100)로부터 관절 각도 값에 따른 제어신호를 수신하여 3축 관절의 각도를 변화시켜 이동하면서 목표 경로 값에 대응하는 글자나 그림을 보드 상에 쓰거나 그리게 된다.
도 4는 본 발명에 따른 인공지능 로봇 교육 장치의 제2 관절 로봇을 제어하는 과정을 나타낸 것이다.
도 4를 참조하면, 먼저 본 발명에 따른 제2 관절 로봇(30)을 제어하기 위해서는 제2 관절 로봇(30)의 동작 제어에 사용되는 제2 DNN 모델을 생성하는 과정이 필요하다. 제2 DNN 모델을 생성하는 과정은 학습 데이터 생성 단계(S20) 및 제2 DNN 모델 학습 단계(S22)로 구성된다.
학습 데이터 생성 단계(S20) 및 제2 DNN 모델 학습 단계(S22)은 도 3의 학습 데이터 생성 단계(S10) 및 제1 DNN 모델 학습 단계(S12)와 동일하므로 생략한다.
학습 데이터 생성 단계(S20) 및 제2 DNN 모델 학습 단계(S22)를 통해 제2 DNN 모델이 생성되면, 제2 DNN 모델을 제2 관절 로봇(30)의 제어에 사용한다.
한편, 사용자 단말(100)은 팬 틸트 카메라 로봇(40)의 동작을 제어하여 팬 틸트 카메라 로봇(40)이 제2 관절 로봇(30)의 동작 범위 영역에 있는 타겟을 촬영하도록 한다. 팬 틸트 카메라 로봇(40)은 사용자 단말(100)의 제어신호에 따라 2축 관절의 각도를 변화시켜 이동한 후 타겟 영상을 촬영한다(S24).
사용자 단말(100)은 팬 틸트 카메라 로봇(40)으로부터 타겟 영상을 수신하여 타겟 영상을 분석한다(S26). 사용자 단말(100)은 영상 인식 소프트웨어를 이용해 타겟 영상 내의 오브젝트를 식별하고, 식별한 오브젝트의 위치 좌표 값인 목표 지점 값을 산출한다(S28).
사용자 단말(100)은 목표 지점 값을 제2 DNN 모델에 입력하고 제2 DNN 모델로부터 출력되는 관절 각도 값을 이용해 제2 관절 로봇(30)의 동작을 제어한다(S30). 제2 관절 로봇(30)은 사용자 단말(100)로부터 관절 각도 값에 따른 제어신호를 수신하여 3축 관절의 각도를 변화시켜 이동하면서 그립퍼를 통해 목표 지점 값에 위치하는 오브젝트를 집어 올리게 된다.
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
1: 펜 그립퍼 2: 그립퍼
3: 스테레오 카메라 4: 밝기 센서
5: LED 디스플레이 6: 펜
7: 보드 8: 오브젝트
10: 조립형 블록 플레이트 20: 제1 관절 로봇
30: 제2 관절 로봇 40: 팬 틸트 카메라 로봇
100: 사용자 단말

Claims (4)

  1. 사용자 단말에 목표 경로 값이 입력되면 사전 학습된 제1 DNN 모델에 따라 동작하는 제1 관절로봇과,
    상기 사용자 단말에서 목표 지점 값이 산출되면 사전 학습된 제2 DNN 모델에 따라 동작하는 제2 관절로봇과,
    상기 제2 관절로봇의 동작 범위 영역에 있는 타켓을 촬영하여 타겟 영상을 상기 사용자 단말로 전송하는 팬 틸트 카메라 로봇을 포함하는 인공지능 로봇 교육 장치.
  2. 제1항에 있어서,
    상기 제1 관절로봇, 상기 제2 관절로봇 및 상기 팬 틸트 카메라 로봇은 조립형 블록 플레이트에 설치 가능하여, 상기 조립형 블록 플레이트에서 각 로봇의 배치 위치를 다르게 할 수 있는 것을 특징으로 하는 인공지능 로봇 교육 장치.
  3. 인공지능 로봇 교육 장치의 관절로봇 제어 방법에 있어서,
    로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와,
    목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와,
    목표 경로 값을 입력받으면 상기 학습된 DNN 모델을 이용해 관절로봇의 동작을 제어하는 단계를 포함하는 방법.
  4. 인공지능 로봇 교육 장치에서 수행되는 관절로봇 제어 방법에 있어서,
    로봇 구조(링크 길이, 관절 각도)에 대한 순기구학(Forward Kinematic) 해석을 통해 목표 위치 좌표(Xi, Yi, Zi)에 대한 로봇의 관절 각도(αi, βi, γi)를 계산하는 단계와,
    목표 위치 좌표(입력 데이터) 및 상기 계산한 관절 각도(출력 데이터)로 구성된 학습 데이터 셋(set)을 이용하여 DNN(Deep Neural Network) 모델을 학습시키는 단계와,
    상기 관절로봇의 동작 범위 영역에 있는 타겟을 촬영한 타겟 영상을 입력받는 단계와,
    상기 타겟 영상을 분석하여 상기 타겟 영상 내의 목표 지점 값을 산출하는 단계와,
    상기 목표 지점 값을 상기 학습된 DNN 모델에 입력하고 상기 학습된 DNN 모델을 분석하여 관절로봇의 동작을 제어하는 단계를 포함하는 방법.
KR1020200154808A 2020-11-18 2020-11-18 인공지능 로봇 교육 장치 및 그 제어 방법 KR102422762B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200154808A KR102422762B1 (ko) 2020-11-18 2020-11-18 인공지능 로봇 교육 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154808A KR102422762B1 (ko) 2020-11-18 2020-11-18 인공지능 로봇 교육 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20220067973A true KR20220067973A (ko) 2022-05-25
KR102422762B1 KR102422762B1 (ko) 2022-07-20

Family

ID=81797239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154808A KR102422762B1 (ko) 2020-11-18 2020-11-18 인공지능 로봇 교육 장치 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR102422762B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653745B1 (ko) * 2023-06-02 2024-04-02 라이프앤사이언스주식회사 최적화된 연산속도를 가지는 교육용 로봇제어기

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200423032Y1 (ko) * 2006-03-23 2006-08-02 (학)창성학원 Pc 기반의 교육용 휴머노이드 로봇 플랫폼
KR20090011334U (ko) * 2008-05-02 2009-11-05 주식회사 한백전자 학습용 휴머노이드로봇모듈키트
KR20180127590A (ko) * 2017-05-18 2018-11-29 성한별 기계학습과 제어기를 탑재한 교육용 머니퓰레이터
KR101980603B1 (ko) 2016-05-20 2019-05-22 구글 엘엘씨 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
KR20200061900A (ko) * 2018-11-26 2020-06-03 전자부품연구원 로봇피부를 이용한 충돌감지 시스템 및 방법
KR20200099896A (ko) * 2019-02-15 2020-08-25 한양대학교 에리카산학협력단 인공지능 학습이 가능한 교육용로봇 제어모듈

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200423032Y1 (ko) * 2006-03-23 2006-08-02 (학)창성학원 Pc 기반의 교육용 휴머노이드 로봇 플랫폼
KR20090011334U (ko) * 2008-05-02 2009-11-05 주식회사 한백전자 학습용 휴머노이드로봇모듈키트
KR101980603B1 (ko) 2016-05-20 2019-05-22 구글 엘엘씨 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
KR20180127590A (ko) * 2017-05-18 2018-11-29 성한별 기계학습과 제어기를 탑재한 교육용 머니퓰레이터
KR20200061900A (ko) * 2018-11-26 2020-06-03 전자부품연구원 로봇피부를 이용한 충돌감지 시스템 및 방법
KR20200099896A (ko) * 2019-02-15 2020-08-25 한양대학교 에리카산학협력단 인공지능 학습이 가능한 교육용로봇 제어모듈

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653745B1 (ko) * 2023-06-02 2024-04-02 라이프앤사이언스주식회사 최적화된 연산속도를 가지는 교육용 로봇제어기

Also Published As

Publication number Publication date
KR102422762B1 (ko) 2022-07-20

Similar Documents

Publication Publication Date Title
Hood et al. When children teach a robot to write: An autonomous teachable humanoid which uses simulated handwriting
Lathuilière et al. Neural network based reinforcement learning for audio–visual gaze control in human–robot interaction
Ott et al. A humanoid two-arm system for dexterous manipulation
CN109590986B (zh) 机器人教学方法、智能机器人和存储介质
Lee et al. Incremental motion primitive learning by physical coaching using impedance control
Li et al. Survey on mapping human hand motion to robotic hands for teleoperation
JP4463120B2 (ja) 身まねロボットシステムとその身まね動作制御方法
Jiang et al. Indirect iterative learning control for a discrete visual servo without a camera-robot model
Zeng et al. A unified parametric representation for robotic compliant skills with adaptation of impedance and force
CN113664835B (zh) 机器人自动手眼标定方法与系统
Ewerton et al. Incremental imitation learning of context-dependent motor skills
KR102422762B1 (ko) 인공지능 로봇 교육 장치 및 그 제어 방법
Ovur et al. Naturalistic robot-to-human bimanual handover in complex environments through multi-sensor fusion
Bang et al. A three-degree-of-freedom anthropomorphic oculomotor simulator
Edwards et al. Cross-domain perceptual reward functions
Calvo-Varela et al. Development of a Nao humanoid robot able to play Tic-Tac-Toe game on a tactile tablet
US20220032468A1 (en) Robotic drawing
JP2021529674A (ja) 1つ以上のロボット相互参照パラグラフの自然タスクのためのシステム及び方法
Lee et al. Mimetic communication with impedance control for physical human-robot interaction
Boroujeni et al. Haptic device application in persian calligraphy
Solis et al. An underwater simulation server oriented to cooperative robotic interventions: The educational approach
Muis et al. Realistic human motion preservation-imitation development on robot with kinect
Bruno et al. Null space redundancy learning for a flexible surgical robot
Silva et al. Aros: An anthropomorphic robot for human-robot interaction and coordination studies
Kubota et al. Intelligent technologies for edutainment using multiple robots

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right