KR102644164B1 - 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법 - Google Patents

단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법 Download PDF

Info

Publication number
KR102644164B1
KR102644164B1 KR1020200119049A KR20200119049A KR102644164B1 KR 102644164 B1 KR102644164 B1 KR 102644164B1 KR 1020200119049 A KR1020200119049 A KR 1020200119049A KR 20200119049 A KR20200119049 A KR 20200119049A KR 102644164 B1 KR102644164 B1 KR 102644164B1
Authority
KR
South Korea
Prior art keywords
deep learning
image
unit action
nth
unit
Prior art date
Application number
KR1020200119049A
Other languages
English (en)
Other versions
KR20220036621A (ko
Inventor
이상형
조남준
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020200119049A priority Critical patent/KR102644164B1/ko
Publication of KR20220036621A publication Critical patent/KR20220036621A/ko
Application granted granted Critical
Publication of KR102644164B1 publication Critical patent/KR102644164B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 작업자의 행동을 다가가기, 정렬하기, 물체 잡기, 물체 옮기기, 물체 내려놓기, 삽입하기, 조이기를 포함하는 다수의 단위행동으로 구분하여, 상기 단위행동마다 각각 직접 교시(direct teaching) 및 관찰(observation)을 포함하는 시연으로부터 정답 이미지 및 추가 학습용 이미지를 획득하고, 이를 이용하여 학습하는 방법에 관한 것이다.

Description

단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법{Learning method of unit action deep learning model and robot control method using the same}
본 발명은 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법에 관한 것이다.
최근 산업 각 분야에서 딥러닝 모델을 생성하는 것에 대한 관심이 높아지고 있으며, 산업용/협동 로봇을 사용하는 분야에서는 작업자의 작업(task)을 모사하는 로봇을 제작하거나, 제작된 로봇의 모델을 강화학습하여 최적화하는것에 대한 기술 개발이 있어왔다.
하나의 작업은 여러 개의 단위행동으로 구성된다. 단순한 작업은 하나의 모델로 모델링 가능하나, 복잡한 작업은 하나의 모델로 모델링하기에는 복잡하다. 종래에는, 작업자의 작업을 구성하는 여러 개의 단위행동을 구분하여 모델링하고, 학습하는 것에 대한 인식이 부족하였으며, 이에 따라 연산 시간이 증가되고, 정확도가 감소되는 문제가 있었다.
예를 들어, 한국공개특허문헌 제10-2019-0088093호는 로봇을 위한 학습 방법에 관한 것으로, 로봇에서 촬영된 이미지 및 로봇의 타겟 자세에 대한 학습 결과 에 대하여, 로봇의 현재 자세에서 타겟 물체에 대한 자세를 강화학습하는 단계를 포함하고, 강화학습된 결과로부터 로봇의 행동에 대한 평가를 강화학습하여, 타겟 자세를 학습한다. 다만, 로봇은 단위행동을 구분하여 모델링하는 것에 대한 인식은 없고, 여러 신호가 입력되었을 때 우선순위를 정하는 것 및 계획을 수립하는 것에 대한 인식은 없다.
다른 예를 들어, 한국공개특허문헌 제10-2020-0072592호는 로봇용 학습 프레임워크 설정방법 및 이를 수행하는 디지털 제어장치에 관한 것으로, 시연자의 시연정보와 모방학습을 통해 로봇이 초기 모터 스킬을 학습하고, 강화학습을 하여 로봇의 모터 스킬을 향상시킨다. 다만, 로봇은 단위행동을 구분하여 모델링하는 것에 대한 인식은 없고, 여러 신호가 입력되었을 때 우선순위를 정하는 것 및 계획을 수립하는 것에 대한 인식은 없다.
(특허문헌 1) 한국공개특허문헌 제10-2019-0088093호
(특허문헌 2) 한국공개특허문헌 제10-2020-0072592호
(특허문헌 3) 한국등록특허문헌 제10-2131097호
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다.
본 발명은 작업자의 시연으로부터 딥러닝 모델을 생성하고, 로봇 및 기계를 이용하여 작업자의 행동을 대체 또는 협업하기 위한 기술이다.
구체적으로, 본 발명은 작업자의 작업을 단위행동으로 구분하여, 단위행동 각각 딥러닝 모델을 생성하기 위함이다.
또한, 본 발명은 단위행동 딥러닝 모델을 생성하고, 비용함수를 이용하여 학습하기 위함이다.
또한, 본 발명은 생성된 단위행동 딥러닝 모델을 목표 지향 순서에 따라 배열할 수 있고, 새롭게 입력되는 이미지가 어느 단위행동에 부합하는지 판단하기 위함이다.
또한, 본 발명은 학습된 단위행동 딥러닝 모델이 적용된 로봇 기구를 정확하게 제어하기 위함이다.
상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, 작업자의 행동을 다가가기, 정렬하기, 물체 잡기, 물체 옮기기, 물체 내려놓기, 삽입하기 및 조이기를 포함하는 n개의 단위행동으로 구분하여, 상기 단위행동마다 각각 직접 교시(direct teaching) 및 관찰(observation)을 포함하는 시연으로부터 정답 이미지 및 추가 학습용 이미지를 획득하고, 이를 이용하여 학습하는 방법으로서, (a) 전처리 모듈(100)은 작업자의 시연으로부터 로우 이미지가 입력되면 상기 로우 이미지에서 단위행동을 각각 구분하고, 상기 구분된 단위행동마다 각각 정답 이미지와 그 외의 배경을 추출하고, 상기 구분된 단위행동마다 상기 정답 이미지와 배경을 포함하는 각각의 이미지 세트를 생성하는 단계;(b) 모델링 수행 모듈(200)이 상기 각각의 이미지 세트를 입력받아, 각각 딥러닝 학습하여 다수의 레이어를 포함하는 제1 내지 제n 단위행동 딥러닝 모델(n은 2이상의 자연수)을 상기 단위행동마다 각각 생성하는 단계;(c) 데이터 처리 모듈(300)에서 상기 제1 내지 제n 단위행동 딥러닝 모델의각각 제1 내지 제n 비용함수(cost function)를 판단하고, 상기 제1 내지 제n 비용함수의 정답 벡터를 결정하는 단계;(d) 상기 전처리 모듈(100)에 추가 학습용 이미지가 입력되고, 상기 전처리 모듈(100)은 상기 추가 학습용 이미지에서 단위행동을 각각 구분하고, 상기 각각의 제1 내지 제n 단위행동 딥러닝 모델 중 상기 단위행동에 대응되는 어느 하나의 단위행동 딥러닝 모델에 상기 추가 학습용 이미지를 전송하고, 상기 어느 하나의 단위행동 딥러닝 모델은 상기 추가 학습용 이미지에서 특징 벡터를 추출하고, 상기 추출된 특징 벡터는 상기 데이터 처리 모듈(300)로 전송하고, 상기 데이터 처리 모듈(300)이 상기 추가 학습용 이미지에서 추출된 특징 벡터를 임베딩한 특징 벡터와 상기 (c)단계에서 결정한 정답 벡터를 추가 학습 모듈(400)로 전송하는 단계; 및 (e) 상기 추가 학습 모듈(400)에서 상기 전송된 정답 벡터와 상기 추가 학습용 이미지의 임베딩된 특징 벡터의 차이를 비교하고, 상기 차이가 기설정된 값 미만이면, 상기 추가 학습용 이미지의 임베딩된 특징 벡터로 상기 제1 내지 제n 단위행동 딥러닝 모델 중 상기 어느 하나를 추가 학습시키는 단계;를 포함하는, 학습 방법을 제공한다.
일 실시예는, 상기 (e)단계 이후, (f) 상기 전처리 모듈(100)에 추가 학습용 이미지가 더 입력되고, 상기 (d) 내지 (e) 단계가 반복되어 상기 제1 내지 제n 단위행동 딥러닝 모델 중 다른 하나를 추가 학습시키는 단계를 더 포함할 수 있다.
일 실시예는, (a1) 상기 전처리 모듈(100)이 상기 정답 이미지에서 기 설정된 방법에 따라 타겟 물체와 장애물을 분리하는 단계; 및 (a2) 상기 전처리 모듈(100)이 상기 분리된 타겟 물체와 장애물을 상기 배경에 배열하되 상기 타겟 물체와 장애물의 위치, 방향 및 자세를 변경하면서 배열함으로써, 새로운 이미지 세트 생성하는 단계; 를 포함할 수 있다.
상기와 같은 과제를 해결하기 위한 본 발명의 다른 실시예는 전술한, 상기 학습 방법으로 생성된 제1 내지 제n 단위행동 딥러닝 모델을 이용한 로봇 제어 방법으로서, (g) 상기 전처리 모듈(100)에 실시간 이미지가 입력되면, 상기 전처리 모듈(100)이 상기 실시간 이미지를 상기 제1 내지 제n 단위행동 딥러닝 모델 각각에 전송하고, 상기 제1 내지 제n 단위행동 딥러닝 모델 각각은 전송된 실시간 이미지에서 특징 벡터를 추출하여 상기 데이터 처리 모듈(300)로 전송하는 단계;(h) 상기 데이터 처리 모듈(300)은 상기 (g)단계에서 전송된 특징 벡터를 각각 임베딩하고, 상기 임베딩된 특징 벡터 각각을 상기 제1 내지 제n 비용함수에 대입하여 제1 내지 제n 비용함수값을 각각 연산하고, 상기 연산된 제1 내지 제n 비용함수값 각각을 리모델링 모듈(500)로 전송하는 단계; 및 (i) 상기 리모델링 모듈(500)은 상기 데이터 처리 모듈(300)에서 전송된 상기 제1내지 제n 비용함수값을 이용하여 기설정된 방법으로 로봇 제어값을 각각 연산하고, 상기 로봇 제어값들 중 가장 큰 값에 해당하는 상기 제1 내지 제n 단위행동 딥러닝 모델 중 어느 하나를 선택하는 단계; 를 포함하는 제어 방법을 제공한다.
일 실시예는, 상기 (i)단계는, (i1) 상기 리모델링 모듈(500)은 각각의 상기 제1 내지 제n 비용함수값이 모두 기설정된 값 이상이면, 1에서 제1 비용함수값을 차감한 값에 1을 더한 후 상기 제1 비용함수값을 곱하여 상기 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산하는 단계;(i2) 상기 리모델링 모듈(500)이 상기 제1 내지 제n 비용함수값이 중 어느 하나라도 기설정된 값 미만이면, 1에서 제1 비용함수값을 차감한 값에 상기 제1 비용함수값을 곱하여 상기 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산하는 단계; 및(i3) 상기 리모델링 모듈(500)이, 1에서 제n 비용함수값을 차감한 값과 1에 제n-1 비용함수값을 더한 값을 더한 후 여기에 제n 비용함수값을 곱하여 상기 제n 단위행동 딥러닝 모델(n은 2 이상의 자연수)의 로봇 제어값을 연산하는 단계; 를 포함할 수 있다.
일 실시예는, 상기 (g) 단계 이전에, 상기 전처리 모듈(100)에 실시간 이미지가 입력되면, 상기 전처리 모듈(100)이 상기 실시간 이미지를 하나 이상의 실시간 이미지로 분류하는 단계를 더 포함하며, 상기 분류된 하나 이상의 실시간 이미지마다 각각 상기 (g) 내지 (i) 단계가 반복되어, 상기 제1 내지 제n 단위행동 딥러닝 모델 중 어느 하나 이상이 선택되고, 상기 (i) 단계 이후, 상기 로봇이, 상기 선택된 제1 내지 제n 단위행동 딥러닝 모델 각각에 대응되는 하나 이상의 단위행동을 수행하도록 제어되는 단계; 를 포함할 수 있다.
한편 본 발명은 전술한, 상기 학습 방법에 의해 생성된 딥러닝 모델을 포함한 프로그램으로서, 저장 매체에 기록된 프로그램을 제공한다.
또한, 전술한, 상기 학습 방법이 수행되는 시스템을 제공한다.
또한, 전술한, 상기 제어 방법이 수행되도록 저장 매체에 기록된 프로그램을 제공한다.
또한, 전술한, 상기 제어 방법이 수행되는, 로봇을 제공한다.
본 발명에 따라, 다음과 같은 효과가 달성된다.
본 발명은 작업자의 작업을 단위행동으로 구분하여, 단위행동 각각 딥러닝 모델을 생성함에 따라, 작업자의 작업을 정확하게 모델링할 수 있고, 복잡한 작업이더라도 신속하고 정확하게 모델링할 수 있다.
또한, 본 발명은 단위행동 딥러닝 모델을 생성하고, 비용함수를 이용하여 학습하여, 생성된 단위행동 딥러닝 모델에서 최적화하는 과정을 포함하여 학습하는바 단위행동 딥러닝 모델이 작업자의 작업을 정확하게 학습할 수 있다.
또한, 본 발명은 생성된 단위행동 딥러닝 모델을 목표 지향 순서에 따라 배열할 수 있고, 새롭게 입력되는 이미지가 어느 단위행동에 부합하는지 판단하는 바, 작업자의 단위행동이 어느 순서에서 시작하더라도 그 이후의 단위행동 및 작업을 판단 및 수행할 수 있다.
또한, 본 발명은 학습된 딥러닝 모델이 적용되는 매니퓰레이터를 통하여, 작업자의 단위행동 별 작업을 정확하게 수행할 수 있다.
도 1은 본 발명에 따른 방법을 설명하기 위한 도면이다.
도 2는 리모델링 모듈에서 비용함수값을 이용하여 로봇 제어값을 연산하는 것을 설명하기 위한 도면이다.
도 3 내지 도 9는 본 발명에 따라 리모델링 모듈에서 로봇 제어값을 연산하는 것을 설명하기 위한 도면이다.
도 10은 본 발명에 따른 시스템 및 방법이 적용될 수 있는 로봇 보조기구를 나타낸 도면이다.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.
또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 발명에 따른 시스템은, 전처리 모듈(100), 모델링 수행모듈(200), 데이터 처리 모듈(300), 추가 학습 모듈(400), 리모델링 모듈(500)을 포함한다.
도 1 내지 도 10을 참조하여, 본 발명에 따른 시스템과 시스템이 적용되는 방법을 설명한다.
산업현장에서 작업하는 작업자의 행동은 작업의 종류에 따라 다양한 행동을 수행한다.
작업자의 행동을 다수의 단위행동으로 구분할 수 있다. 예를 들어, 단위행동은 다가가기, 정렬하기, 물체 잡기, 물체 옮기기, 물체 내려놓기, 삽입하기, 조이기를 포함할 수 있다. 다만, 이에 제한되어 해석되는 것은 아니다.
본 발명에서는 작업자의 단위행동 마다 각각 직접 교시(direct teaching) 및 관찰(observation)을 포함하는 시연으로부터 정답 이미지와 추가 학습용 이미지를 이용하여 학습한다.
도 1을 참조하여, 본 발명에 따른 방법을 설명한다.
작업자의 시연으로부터 전처리 모듈(100)에 로우(raw) 이미지가 입력된다.
전처리 모듈(100)은 로우 이미지에서 단위행동을 각각 구분하고, 구분된 단위행동 마다 각각 정답 이미지와 그 외의 배경을 추출한다. 이때, 특정 이미지(로우 이미지)를 이용하여 특정 행위(특정 단위행동)인 것으로 판단하는 방법은 종래에 널리 사용되는 여러가지 중 어느 하나의 방법을 이용할 수 있다.
전처리 모듈(100)이 정답 이미지에서 기 설정된 방법에 따라 타겟 물체와 장애물을 분리한다.
전처리 모듈(100)이 분리된 타겟 물체와 장애물을 배경에 배열하되 타겟 물체와 장애물의 위치, 방향 및 자세를 변경하면서 배열함으로써, 새로운 이미지 세트 생성한다.
전처리 모듈(100)은 구분된 단위행동마다 정답 이미지와 배경을 포함하는 각각의 이미지 세트를 생성한다.
전처리 모듈(100)은 생성된 각각의 이미지 세트를 모델링 수행모듈(200)로 전송한다.
이 때, 전처리 모듈(100)에 입력되는 작업자의 행동에 대한 이미지는 하나의 단위행동을 포함하도록 미리 구분될 수도 있다. 이 경우에는, 전처리 모듈(100)에서는 하나의 정답 이미지만이 추출되고, 이후 과정에서 하나의 단위행동 딥러닝 모델이 생성되고, 로우 이미지를 다수번 전처리 모듈(100)에 입력하여, 제1 내지 제n 단위행동 딥러닝 모델을 생성할 수도 있다.
모델링 수행모듈(200)는 전송된 이미지 세트를 각각 딥러닝 학습하여 제1 내지 제n 단위행동 딥러닝 모델을 단위행동마다 각각 생성한다.
이 때, 제1 내지 제n 단위행동 딥러닝 모델은 작업자의 단위행동마다 각각 형성되는 것이다.
단위행동 딥러닝 모델은 다수의 레이어(layer)를 포함한다.
제1 내지 제n 단위행동 딥러닝 모델이 생성된 후, 각각의 모델에서 비용함수를 결정하는 것을 설명한다.
전처리 모듈(100)로부터 추출된 정답 이미지가 제1 내지 제n 단위행동 딥러닝 모델로 각각 입력된다.
제1 내지 제n 단위행동 딥러닝 모델은 다수의 레이어 중에서 중간 레이어에서 생성되는 특징 벡터를 각각 추출한다.
이 때, 중간 레이어의 계층은 임의로 선택되어도 무관하다.
제1 내지 제n 단위행동 딥러닝 모델은 각각의 정답 이미지에서 추출된 특징 벡터를 데이터 처리 모듈(300)로 전송한다.
데이터 처리 모듈(300)은 제1 내지 제n 단위행동 딥러닝 모델에서 전송된 정답 이미지에서 추출된 특징 벡터를 임베딩 공간에서 임베딩하여 차원을 축소한다.
이 때, 임베딩 방법은 특정 방법에 제한되는 것은 아니고, 임베딩은 가령 u-map과 같은 프로그램에 의해 이루어질 수 있으나 이에 제한되는 것은 아니다.
데이터 처리 모듈(300)은 제1 내지 제n 단위행동 딥러닝 모델에 따라 각각 제1 내지 제n 비용함수(cost function)를 판단하고, 정답 이미지에서 추출되어 임베딩된 벡터를 각각의 정답 벡터(reference vector)로 결정한다.
이 때, 임베딩된 특징 벡터는 2차원의 벡터이나, 이에 제한되는 것은 아니다.
이 때, 비용함수는 오차를 측정하는 함수로서, 이후 비용함수의 정답 벡터를 기준으로, 제1 내지 제n 단위행동 딥러닝 모델로 입력되는 실시간 이미지에서의 임베딩 공간에서의 벡터와 비용함수의 정답 벡터와 차이를 비교하여, 차이가 적은 값이 해당 작업자의 단위행동과 유사하게 수행되었음을 판단하는 기준으로 사용될 수 있다.
이후, 추가 학습 모듈(400)이 생성된 제1 내지 제n 비용함수를 이용하여 제1 내지 제n 단위행동 딥러닝 모델을 추가 학습시키는 것을 설명한다.
추가 학습용 이미지가 전처리 모듈(100)에 입력된다.
추가 학습용 이미지는 로봇의 동작으로부터 생성되는 이미지를 의미한다. 즉, 로봇이 단위행동을 수행할 때 로봇의 각도와 위치를 포함하는 이미지를 의미할 수 있다. 이 경우에도, 로봇은 작업자의 시연을 학습하여 동작되는 로봇일 수 있다.
또는, 추가 학습용 이미지는 작업자의 시연으로부터 생성되는 이미지를 의미할 수 있다. 가령, 작업자가 직접 단위행동을 수행하는 동작을 포함하는 이미지일 수 있다.
전처리 모듈(100)은 추가 학습용 이미지에서 단위행동을 각각 구분하고, 각각의 제1 내지 제n 단위행동 딥러닝 모델 중 단위행동에 대응되는 어느 하나의 단위행동 딥러닝 모델에 추가 학습용 이미지를 전송한다.
예를 들어, 전처리 모듈(100)이 추가 학습용 이미지에서 구분된 단위행동은 제3 단위행동일 수 있고, 전처리 모듈(100)은 제3 단위행동 딥러닝 모델에 추가 학습용 이미지를 전송한다. 이후, 제3 단위행동 딥러닝 모델이 추가 학습되는 것을 의미한다.
이 때, 추가 학습용 이미지에서 구분된 단위행동이 다수일 수 있고, 이 경우에는 학습용 이미지를 구분하고, 구분된 추가 학습용 이미지를 각각의 단위행동 딥러닝 모델에 전송하여 추가 학습시킬 수 있다.
어느 하나의 단위행동 딥러닝 모델은 추가 학습용 이미지에서 특징 벡터를 추출하고, 추출된 특징 벡터는 데이터 처리 모듈(300)로 전송한다.
데이터 처리 모듈(300)은 추가 학습용 이미지에서 특징 벡터를 임베딩한다.
데이터 처리 모듈(300)은 추가 학습용 이미지에서 추출된 특징 벡터를 임베딩한 특징 벡터와 정답 벡터를 추가 학습 모듈(400)로 전송한다.
데이터 처리 모듈(300)은 정답 벡터와 실시간 이미지의 임베딩된 특징 벡터를 추가 학습 모듈(400)로 전송한다.
추가 학습 모듈(400)은 추가 학습용 이미지의 임베딩된 특징 벡터와, 정답 벡터와의 차이가 기설정된 값 미만인지 판단한다.
추가 학습 모듈(400)은 차이가 기설정된 값 미만인 실시간 이미지의 임베딩된 특징 벡터로 제1 내지 제n 단위행동 딥러닝 모델 중 어느 하나를 추가 학습시킨다.
이후, 전처리 모듈(100)에 추가 학습용 이미지가 더 입력되고, 상기 과정이반복되어 제1 내지 제n 단위행동 딥러닝 모델 중 다른 하나를 추가 학습시킨다.
즉, 이와 같은 과정을 통해 제1 내지 제n 단위행동 딥러닝 모델이 각각 추가 학습될 수 있음을 의미한다.
상기의 과정을 통하여, 제1 내지 제n 단위행동 딥러닝 모델이 생성되고, 추가 학습되는 것을 설명하였다.
이후, 도 2 내지 도 8을 참조하여, 학습 방법으로 생성된 제1 내지 제n 단위행동 딥러닝 모델을 이용한 로봇 제어 방법을 설명한다.
작업자의 단위행동 별로 각각 제1 내지 제n 단위행동 딥러닝 모델을 생성한 것을, 로봇이 이를 단순히 순서대로만 학습할 경우에는 작업을 수행하다가 예기치 못한 상황이 발생할 경우 처음부터 학습된 단위행동부터 다시 작업을 수행해야 한다.
따라서, 본 발명에서는 단위행동들 사이의 전이가 일어날 수 있도록 구성하여, 로봇이 완전 연결 상태 머신(fully-connected state machine)과 같이 행동하도록 로봇 행동 생성 딥러닝 모델을 생성한다.
전처리 모듈(100)에 실시간 이미지가 입력되면, 전처리 모듈(100)이 상기 실시간 이미지를 제1 내지 제n 단위행동 딥러닝 모델 각각에 전송하고, 제1 내지 제n 단위행동 딥러닝 모델 각각은 전송된 실시간 이미지에서 특징 벡터를 추출하여 데이터 처리 모듈(300)로 전송한다.
이 때, 실시간 이미지는 작업자의 시연 또는 작업에 따른 이미지일 수 있으나, 이에 제한되는 것은 아니다.
데이터 처리 모듈(300)은 전송된 특징 벡터를 각각 임베딩하고, 임베딩된 특징 벡터 각각을 제1 내지 제n 비용함수에 대입하여 제1 내지 제n 비용함수값을 각각 연산하고, 연산된 제1 내지 제n 비용함수값 각각을 리모델링 모듈(500)로 전송한다.
리모델링 모듈(500)은 데이터 처리 모듈(300)에서 전송된 상기 제1 내지 제n 비용함수값을 이용하여 기설정된 방법으로 로봇 제어값을 각각 연산하고, 로봇 제어값들 중 가장 큰 값에 해당하는 제1 내지 제n 단위행동 딥러닝 모델 중 어느 하나를 선택한다.
.
리모델링 모듈(500)은 제1 내지 제n 비용함수값을 전송받고, 1에서 차감한 제1 내지 제n 비용함수값을 각각 연산한다.
리모델링 모듈(500)이 제1 내지 제n 비용함수값이 각각 기설정된 값 이상인지 판단한다.
리모델링 모듈(500)이 제1 내지 제n 비용함수값이 각각 기설정된 값 이상이면, 1에서 제1 비용함수값을 차감한 값에 1을 더한 후 상기 제1 비용함수값을 곱하여 상기 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산한다.
또한, 리모델링 모듈(500)이 제1 내지 제n 비용함수값이 중 어느 하나라도 기설정된 값 미만이면, 1에서 제1 비용함수값을 차감한 값에 제1 비용함수값을 곱하여 상기 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산한다.
도 2를 참조하면, 1에서 제n 비용함수값을 차감한 값과 1에서 제n-1 비용함수값을 차감한 값을 더한 값을 더한 후 여기에 제n 비용함수값을 곱하여 상기 제n 단위행동 딥러닝 모델(n은 2 이상의 자연수)의 로봇 제어값을 연산한다.
상기의 연산 과정에서는, 각각의 제1 내지 제n 단위행동 딥러닝 모델에서의 비용함수값이 높으면 로봇이 행동을 수행해야 하는 것을 의미하는 바, 해당 제1 내지 제n 단위행동 딥러닝 모델에서의 비용함수를 곱해준다.
또한, 상기의 연산 과정에서는 이전의 단위행동의 비용함수가 낮다는 의미는 그 다음 단위행동을 수행해야 함을 의미하는 바, 제n 단위행동 딥러닝 모델의 로봇 제어값을 연산할 때 제n-1 단위행동 딥러닝 모델의 1에서 차감한 제n-1 비용함수값을 더해주는 바, 제n-1 단위행동 딥러닝 모델의 비용함수값이 낮아 제n-1 단위행동을 수행하는 것이 바람직하지 않음을 제n+1 단위행동 딥러닝 모델에 반영하여, 제n 단위행동 딥러닝 모델의 로봇 제어값의 수치를 증가시킬 수 있다.
리모델링 모듈(500)이 제1 내지 제n 단위행동 딥러닝 모델에서 연산된 로봇 제어값이 가장 큰 단위행동 딥러닝 모델을 선택한다.
이 때, 상기와 같은 과정은 반복되어 수행될 수 있다.
즉, 전처리 모듈(100)에 실시간 이미지가 입력되면, 전처리 모듈(100)이 상기 실시간 이미지를 하나 이상의 실시간 이미지로 분류한 후, 분류된 하나 이상의 실시간 이미지마다 각각 상기 과정이 반복되고, 제1 내지 제n 단위행동 딥러닝 모델 중 어느 하나 이상이 선택되는 과정이 반복된다.
이후, 로봇이, 선택된 제1 내지 제n 단위행동 딥러닝 모델 각각에 대응되는 하나 이상의 단위행동을 수행하도록 제어되고, 이와 같은 과정을 반복하여 로봇은 입력된 실시간 이미지에 대응되는 단위행동을 연속적으로 수행하도록 제어될 수 있다.
도 3 내지 도 9는 예를 들어, 기설정된 값이 0.2일 때 제1 내지 제5 단위행동 딥러닝 모델에서 수행되는 단위행동을 결정하는 것을 설명한다.
제1 단위행동 딥러닝 모델은 단위행동이 "다가가기"로 설정된다.
제2 단위행동 딥러닝 모델은 단위행동이 "정렬하기"로 설정된다.
제3 단위행동 딥러닝 모델은 단위행동이 "물체잡기"로 설정된다.
제4 단위행동 딥러닝 모델은 단위행동이 "물체 옮기기"로 설정된다.
제5 단위행동 딥러닝 모델은 단위행동이 "내려놓기"로 설정된다.
도 3에서 제1 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제1 비용함수값이 0.61이고, 제2 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제2 비용함수값이 0.71이고, 제3 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제3 비용함수값이 0.81이고, 제4 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제4 비용함수값이 0.61이고, 제5 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제5 비용함수값이 0.77이다.
제1 내지 제5 단위행동 딥러닝 모델의 비용함수값은 각각 기설정된 값인 0.2 이상이다. 이 경우, 제1 단위행동 딥러닝 모델에서 1에서 차감한 제1 비용함수에 1을 더하고, 그 후 제1 비용함수를 곱한다. 따라서, 제1 단위행동 딥러닝 모델에서는 로봇 제어값이 (1+0.39)*0.61=0.8479로 연산된다. 이는 제1 내지 제5 단위행동의 로봇 제어값 중 가장 큰 값인 바, 리모델링 모델(400)은 입력된 이미지에 대한 단위행동으로 제1 단위행동인 "다가가기"를 결정할 수 있다.
도 4는 제1 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제1 비용함수값이 0.02이고, 제2 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제2 비용함수값이 0.71이고, 제3 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제3 비용함수값이 0.81이고, 제4 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제4 비용함수값이 0.61이고, 제5 단위행동 딥러닝 모델에서 입력된 이미지에 대한 제5 비용함수값이 0.77이다.
제1 단위행동 딥러닝 모델에서의 비용함수값이 0.02로 기설정된 값 미만인 바, 이와 같은 경우 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산할 때 제1 단위행동 딥러닝 모델의 제1 비용함수값과 1에서 차감한 제1 비용함수값만을 곱하여 연산한다.
이 때, 제1 단위행동 딥러닝 모델에서의 제1 비용함수값이 낮을 경우 로봇은 제1 단위행동을 수행한 경우로, 로봇이 이미 타겟 물체에 다가간 이후임을 의미한다.
제2 단위행동 딥러닝 모델에서 로봇 제어값은 제2 단위행동 딥러닝 모델에서의 1에서 차감한 제2 비용함수값인 0.29에 1에서 차감한 제1 비용함수값인 0.98을 더한 값에 제2 비용함수값인 0.71을 곱하여 연산된다. 따라서, 제2 단위행동 딥러닝 모델에서는 로봇 제어값이 (0.98+0.29)*0.71=0.9017로 연산된다. 이는 제1 내지 제5 단위행동의 로봇 제어값 중 가장 큰 값인 바, 리모델링 모델(400)은 입력된 이미지에 대한 단위행동으로 제2 단위행동인 "정렬하기"를 결정할 수 있다.
도 5 내지 도 7은 각각 제3 내지 제5 단위행동에서의 로봇 제어값이 각각 큰 경우를 설명하며, 이에 따라 각각 제3 내지 제5 단위행동이 결정된다.
도 8를 참조하여, 로봇이 있는 환경에 타겟 물체가 2개 있는 경우로 바닥에 물체 1개가 놓여 있고, 로봇이 물체 1개를 잡고 있는 상황 가정한다.
이 경우에는 예를 들어, 제2 단위행동인 “정렬하기”의 비용함수도 낮고, 제3 단위행동인“물체잡기”의 비용함수도 낮은 상황으로, 바닥에 놓인 물체에 대하여 제3 단위행동인“물체잡기”를 하는 것이 바람직한지, 이미 잡고 있는 물체에 대하여 제4 단위행동인“물체 옮기기"를 하는 것이 바람직한지가 문제된다.
본 발명에서는 이런 경우 이미 잡고 있는 물체에 대하여 제4 단위행동인“물체 옮기기”를 먼저 수행한 후 다른 물체에 대한 로봇 행동을 수행하도록 제어할 수 있다.
도 8에서 제2 단위행동 딥러닝 모델과 제3 단위행동 딥러닝 모델의 비용함수값이 각각 0.04, 0.06으로 낮은 것으로 도시되고, 제4 단위행동 딥러닝 모델의 로봇 제어값은 제3 단위행동 딥러닝 모델에서의 높은 1에서 차감된 제3 비용함수값을 더해지는 바 제1 내지 제5 단위행동 딥러닝 모델의 로봇 제어값 중 가장 높다.
제3 단위행동 딥러닝 모델에서는 제2 단위행동 딥러닝 모델에서의 높은 1에서 차감된 제2 비용함수값이 더해지더라도 제3 단위행동 딥러닝 모델의 낮은 제3 비용함수가 곱해지는 바, 제4 단위행동 딥러닝 모델보다 로봇 제어값이 낮다.
도 9을 참조하여, 로봇이 있는 환경에 타겟 물체가 2개 있는 경우로, 바닥에 물체 1개가 놓여 있고, 로봇이 물체 1개를 옮기는 상황 가정한다.
예를 들어, 제1 단위행동인“다가가기”의 비용함수도 낮고, 제4 단위행동의“물체 옮기기”의 비용함수도 낮은 상황으로, 이 경우에 제2 단위행동인“정렬하기”를 하는 것이 바람직한지, 제5 단위행동인“내려놓기"를 하는 것이 바람직한지 문제된다.
본 발명에서는 이런 경우 이미 잡고 있는 물체를 제5 단위행동인“내려놓기”를 먼저 끝낸 후 다른 물체에 대한 로봇 행동을 수행하도록 제어할 수 있다.
다만, 이전 행동의 결과에 따라 바뀔 수 있음. 예를 들어, 제4단위행동인“물체 옮기기"의 상황보다 제1 단위행동인 “다가가기”의 상황이 확실하게 보장되어 있다면 제5 단위행동인 “내려놓기”가 아닌 제2 단위행동인“정렬하기"를 수행할 수도 있다.
이에 따라, 리모델링 모델(400)에 제1 내지 제n 단위행동 딥러닝 모델에 이미지가 연속하여 입력되더라도 로봇이 완전 연결 상태 머신(fully-connected state machine)과 같이 행동하도록 로봇 행동 생성 딥러닝 모델을 생성할 수 있다.
도 10은 본 발명에 따른 시스템 및 방법이 적용될 수 있는 로봇을 예시적으로 나타낸 도면으로, 도시된 로봇에 제한되는 것은 아니고, 산업용/협동 로봇을 사용하는 모든 분야에 적용 가능하며, 현재 로봇을 활용하고 있는 모든 분야를 포함해 아직까지 로봇을 사용하지 못한 분야들에도 그 사용 범위 확장이 가능하다.
위 설명한 본 발명의 일 실시예에 따른 학습 방법과 제어방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.
상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상기된 하드웨어 장치는 본 발명을 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 위 설명한 본 발명의 일 실시예에 따른 학습 방법은 상기 학습 방법이 수행되는 시스템에 의해 수행될 수 있다.
또한, 위 설명한 본 발명의 일 실시예에 따른 제어 방법은 로봇에 의해 수행될 수 있다.
이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.
100: 전처리 모듈
200: 모델링 수행 모듈
300: 데이터 처리 모듈
400: 추가 학습 모듈
500: 리모델링 모듈

Claims (12)

  1. 작업자의 행동을 다가가기, 정렬하기, 물체 잡기, 물체 옮기기, 물체 내려놓기, 삽입하기 및 조이기를 포함하는 n개의 단위행동으로 구분하여, 상기 단위행동마다 각각 직접 교시(direct teaching) 및 관찰(observation)을 포함하는 시연으로부터 정답 이미지 및 추가 학습용 이미지를 획득하고, 이를 이용하여 학습하는 방법으로서,
    (a) 전처리 모듈(100)은 작업자의 시연을 촬영한 로우 이미지가 입력되면 상기 로우 이미지를 기 설정된 방법으로 상기 n개의 단위행동 중 어느 하나의 단위행동으로 결정하고, 상기 구분된 단위행동마다 각각 정답 이미지와 그 외의 배경을 기 설정된 방법을 이용하여 추출하고, 상기 구분된 단위행동마다 상기 정답 이미지와 배경을 포함하는 각각의 이미지 세트를 생성하는 단계; - 여기서, 상기 정답 이미지는 작업자, 타겟 물체와 장애물을 포함함 -
    (b) 모델링 수행 모듈(200)이 상기 각각의 이미지 세트를 입력받아, 각각 딥러닝 학습하여 다수의 레이어를 포함하는 제1 내지 제n 단위행동 딥러닝 모델(n은 2이상의 자연수)을 상기 단위행동마다 각각 생성하는 단계; - 여기서, 딥러닝 모델은 이미지 세트를 입력받아 특징벡터를 추출하는 모델임 -
    (c) 데이터 처리 모듈(300)에서 상기 제1 내지 제n 단위행동 딥러닝 모델의 각각 제1 내지 제n 비용함수(cost function)를 판단하고, 상기 특징벡터를 임베딩하여 상기 제1 내지 상기 제n 단위행동 딥러닝 모델마다 정답 벡터를 결정하는 단계;
    (d) 상기 전처리 모듈(100)에 추가 학습용 이미지가 입력되고, 상기 전처리 모듈(100)은 상기 추가 학습용 이미지를 기 설정된 방법으로 상기 n개의 단위행동 중 어느 하나의 단위행동으로 결정하고, 상기 각각의 제1 내지 제n 단위행동 딥러닝 모델 중 결정된 상기 단위행동에 대응되는 어느 하나의 단위행동 딥러닝 모델에 상기 추가 학습용 이미지로부터 추출된 정답 이미지와 배경을 포함하는 추가 학습용 이미지 세트를 전송하고, 상기 어느 하나의 단위행동 딥러닝 모델은 상기 추가 학습용 이미지 세트에서 특징 벡터를 추출하고, 상기 추출된 특징 벡터는 상기 데이터 처리 모듈(300)로 전송하고, 상기 데이터 처리 모듈(300)이 상기 추가 학습용 이미지에서 추출된 특징 벡터를 임베딩한 특징 벡터와 상기 (c)단계에서 결정한 정답 벡터를 추가 학습 모듈(400)로 전송하는 단계; 및
    (e) 상기 추가 학습 모듈(400)에서 상기 전송된 정답 벡터와 상기 추가 학습용 이미지의 임베딩된 특징 벡터의 차이를 비교하고, 상기 차이가 기설정된 값 미만이면, 상기 추가 학습용 이미지의 임베딩된 특징 벡터를 포함하는 추가 학습용 이미지 세트로 상기 제1 내지 제n 단위행동 딥러닝 모델 중 상기 어느 하나를 추가 학습시키는 단계;를 포함하는,
    학습 방법.
  2. 제1항에 있어서,
    상기 (e)단계 이후,
    (f) 상기 전처리 모듈(100)에 다른 추가 학습용 이미지가 더 입력되고, 이를 이용하여 상기 (d) 내지 (e) 단계가 반복되어 상기 제1 내지 제n 단위행동 딥러닝 모델 중 다른 하나를 추가 학습시키는 단계;를 더 포함하는,
    학습 방법.
  3. 제1항에 있어서,
    (a1) 상기 전처리 모듈(100)이 상기 정답 이미지에서 기 설정된 방법에 따라 타겟 물체와 장애물을 분리하는 단계; 및
    (a2) 상기 전처리 모듈(100)이 상기 분리된 타겟 물체와 장애물을 상기 배경에 배열하되 상기 타겟 물체와 장애물의 위치, 방향 및 자세를 변경하면서 배열함으로써, 새로운 이미지 세트 생성하는 단계; 를 포함하는,
    학습 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 따른 학습 방법으로 생성된 제1 내지 제n 단위행동 딥러닝 모델을 이용한 로봇 제어 방법으로서,
    (g) 상기 전처리 모듈(100)에 실시간 이미지가 입력되면, 상기 전처리 모듈(100)이 상기 실시간 이미지를 상기 제1 내지 제n 단위행동 딥러닝 모델 각각에 전송하고, 상기 제1 내지 제n 단위행동 딥러닝 모델 각각은 전송된 실시간 이미지에서 특징 벡터를 추출하여 상기 데이터 처리 모듈(300)로 전송하는 단계;
    (h) 상기 데이터 처리 모듈(300)은 상기 (g)단계에서 전송된 특징 벡터를 각각 임베딩하고, 상기 임베딩된 특징 벡터 각각을 상기 제1 내지 제n 비용함수에 대입하여 제1 내지 제n 비용함수값을 각각 연산하고, 상기 연산된 제1 내지 제n 비용함수값 각각을 리모델링 모듈(500)로 전송하는 단계; 및
    (i) 상기 리모델링 모듈(500)은 상기 데이터 처리 모듈(300)에서 전송된 상기 제1내지 제n 비용함수값을 이용하여 기설정된 방법으로 로봇 제어값을 각각 연산하고, 상기 로봇 제어값들 중 가장 큰 값에 해당하는 상기 제1 내지 제n 단위행동 딥러닝 모델 중 어느 하나를 선택하는 단계; 를 포함하는,
    제어 방법.
  5. 제4항에 있어서,
    상기 (i)단계는,
    (i1) 상기 리모델링 모듈(500)은 각각의 상기 제1 내지 제n 비용함수값이 모두 기설정된 값 이상이면, 1에서 제1 비용함수값을 차감한 값에 1을 더한 후 상기 제1 비용함수값을 곱하여 상기 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산하는 단계;
    (i2) 상기 리모델링 모듈(500)이 상기 제1 내지 제n 비용함수값이 중 어느 하나라도 기설정된 값 미만이면, 1에서 제1 비용함수값을 차감한 값에 상기 제1 비용함수값을 곱하여 상기 제1 단위행동 딥러닝 모델의 로봇 제어값을 연산하는 단계; 및
    (i3) 상기 리모델링 모듈(500)이, 1에서 제n 비용함수값을 차감한 값과 1에제n-1 비용함수값을 더한 값을 더한 후 여기에 제n 비용함수값을 곱하여 상기 제n 단위행동 딥러닝 모델(n은 2 이상의 자연수)의 로봇 제어값을 연산하는 단계; 를 포함하는,
    제어 방법.
  6. 삭제
  7. 제1항 내지 제3항 중 어느 한 항에 따른 학습 방법에 의해 생성된 딥러닝 모델을 포함한 프로그램으로서, 컴퓨터로 판독 가능한 저장 매체에 기록된 프로그램.
  8. 제1항 내지 제3항 중 어느 한 항에 따른 학습 방법이 수행되는 시스템.
  9. 제4항에 따른 제어 방법이 수행되도록 저장 매체에 기록된 프로그램.
  10. 제4항에 따른 제어 방법이 수행되는, 로봇.
  11. 제5항에 따른 제어 방법이 수행되도록 저장 매체에 기록된 프로그램.
  12. 제5항에 따른 제어 방법이 수행되는, 로봇.
KR1020200119049A 2020-09-16 2020-09-16 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법 KR102644164B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200119049A KR102644164B1 (ko) 2020-09-16 2020-09-16 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200119049A KR102644164B1 (ko) 2020-09-16 2020-09-16 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법

Publications (2)

Publication Number Publication Date
KR20220036621A KR20220036621A (ko) 2022-03-23
KR102644164B1 true KR102644164B1 (ko) 2024-03-07

Family

ID=80963620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200119049A KR102644164B1 (ko) 2020-09-16 2020-09-16 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법

Country Status (1)

Country Link
KR (1) KR102644164B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276886A (ja) 2008-05-13 2009-11-26 National Institute Of Information & Communication Technology 動作学習装置
JP2018200540A (ja) 2017-05-26 2018-12-20 オムロン株式会社 学習装置、学習制御方法、及びそのプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101023951B1 (ko) * 2009-03-17 2011-03-28 한국과학기술원 행동인식 시스템 및 방법
KR101912918B1 (ko) * 2016-10-31 2018-10-29 한국생산기술연구원 학습 로봇, 그리고 이를 이용한 작업 솜씨 학습 방법
KR102213061B1 (ko) * 2018-12-03 2021-02-09 한국생산기술연구원 로봇용 학습 프레임워크 설정방법 및 이를 수행하는 디지털 제어 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276886A (ja) 2008-05-13 2009-11-26 National Institute Of Information & Communication Technology 動作学習装置
JP2018200540A (ja) 2017-05-26 2018-12-20 オムロン株式会社 学習装置、学習制御方法、及びそのプログラム

Also Published As

Publication number Publication date
KR20220036621A (ko) 2022-03-23

Similar Documents

Publication Publication Date Title
Duque et al. Trajectory generation for robotic assembly operations using learning by demonstration
CN111203878B (zh) 一种基于视觉模仿的机器人序列任务学习方法
Paxton et al. Prospection: Interpretable plans from language by predicting the future
CN109397285B (zh) 一种装配方法、装配装置及装配设备
Stork et al. Enabling virtual assembly training in and beyond the automotive industry
JP5141876B2 (ja) 軌道探索装置
CN114603564A (zh) 机械臂导航避障方法、系统、计算机设备及存储介质
CN112135716A (zh) 数据高效的分层强化学习
CN112720453A (zh) 用于训练机器人系统的操纵技能的方法和设备
US20230419113A1 (en) Attention-based deep reinforcement learning for autonomous agents
Nordmann et al. Modeling of movement control architectures based on motion primitives using domain-specific languages
Bogosian et al. Work in progress: towards an immersive robotics training for the future of architecture, engineering, and construction workforce
Contreras et al. Using deep learning for exploration and recognition of objects based on images
KR102644164B1 (ko) 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법
Davoodi et al. Rule-Based Safe Probabilistic Movement Primitive Control via Control Barrier Functions
Maestre et al. Bootstrapping interactions with objects from raw sensorimotor data: a Novelty Search based approach
Siebel et al. Learning neural networks for visual servoing using evolutionary methods
Pajaziti et al. Path Control of Quadruped Robot through Convolutional Neural Networks
KR20190088093A (ko) 로봇을 위한 학습 방법
US20220138535A1 (en) Source-agnostic image processing
KR102320659B1 (ko) 로봇을 이용한 단위행동 딥러닝 모델 학습방법과 이를 이용한 로봇 제어 방법
Nambiar et al. Automation of unstructured production environment by applying reinforcement learning
Censi et al. The ai driving olympics: An accessible robot learning benchmark
Wicaksono et al. A learning framework for tool creation by a robot
Cintas et al. Robust behavior and perception using hierarchical state machines: A pallet manipulation experiment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right