KR102094360B1 - System and method for predicting force based on image - Google Patents
System and method for predicting force based on image Download PDFInfo
- Publication number
- KR102094360B1 KR102094360B1 KR1020180066861A KR20180066861A KR102094360B1 KR 102094360 B1 KR102094360 B1 KR 102094360B1 KR 1020180066861 A KR1020180066861 A KR 1020180066861A KR 20180066861 A KR20180066861 A KR 20180066861A KR 102094360 B1 KR102094360 B1 KR 102094360B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot arm
- force
- motion information
- time
- interaction force
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J18/00—Arms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01L—MEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
- G01L11/00—Measuring steady or quasi-steady pressure of a fluid or a fluent solid material by means not provided for in group G01L7/00 or G01L9/00
- G01L11/02—Measuring steady or quasi-steady pressure of a fluid or a fluent solid material by means not provided for in group G01L7/00 or G01L9/00 by optical means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
영상 기반 힘 예측 시스템 및 그 방법이 개시된다. 영상 기반 힘 예측 시스템의 로봇 팔의 힘 예측 방법은 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 단계; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 단계를 포함할 수 있다.An image-based force prediction system and method are disclosed. A method of predicting a force of a robot arm of an image-based force prediction system includes acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; Obtaining time-series motion information related to a change in motion of the robot arm over time; And predicting an interaction force of the robot arm based on the actual images and the time-series motion information.
Description
본 발명은 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for predicting the interaction force of a robot arm using an image.
로봇 팔의 상호 작용 힘(Interaction force)은 오브젝트에 가하는 로봇 팔의 힘 및 오브젝트의 물성치에 의하여 로봇 팔에 피드백되는 힘을 포함하고 있으므로, 사용자가 오브젝트와 상호 작용하는 경우, 촉각을 통하여 느끼는 힘과 유사하다. 따라서, 로봇의 팔을 정밀하게 제어하기 위해서는 로봇 팔의 상호 작용 힘을 측정할 필요가 있다. Since the interaction force of the robot arm includes the force of the robot arm applied to the object and the force fed back to the robot arm by the physical properties of the object, when the user interacts with the object, the force felt through tactile sense similar. Therefore, in order to precisely control the arm of the robot, it is necessary to measure the interaction force of the robot arm.
종래의 로봇 팔의 상호 작용 힘을 측정하는 장치는 로봇에 부착한 힘 센서, 또는 토크 센서를 이용하여 로봇 팔의 상호 작용 힘을 측정하였다. 그러나, 힘 센서, 및 토크 센서는 고가의 장치여서 로봇 팔의 가격 상승 요인이 된다는 문제가 있었다. Conventional apparatus for measuring the interaction force of the robot arm measures the interaction force of the robot arm using a force sensor or a torque sensor attached to the robot. However, since the force sensor and the torque sensor are expensive devices, there is a problem that the price increases of the robot arm.
또한, 로봇 팔의 구조와 크기에 따라서는 힘 센서, 또는 토크 센서를 부착하기 어려운 경우가 발생한다는 한계도 있었다.In addition, depending on the structure and size of the robot arm, there is a limit that it is difficult to attach a force sensor or a torque sensor.
그리고, 힘 센서, 또는 토크 센서는 로봇 팔이 오브젝트와 접촉한 후에 로봇 팔의 상호 작용 힘을 측정하므로, 오브젝트의 강도가 약한 경우, 로봇 팔이 오브젝트와 접촉한 후 힘 센서, 또는 토크 센서가 로봇 팔의 상호 작용 힘을 측정하기 전에 오브젝트가 파손될 가능성도 있었다.In addition, the force sensor or the torque sensor measures the interaction force of the robot arm after the robot arm contacts the object, so when the strength of the object is weak, the force sensor or the torque sensor is the robot after the robot arm contacts the object. There was also the possibility of the object breaking before measuring the interaction force of the arm.
따라서, 센서 없이 로봇 팔이 오브젝트와 접촉 전에 오브젝트와 상호 작용할 로봇 팔의 상호작용 힘을 측정, 또는 예측하는 방법이 필요한 실정이다.Therefore, there is a need for a method of measuring or predicting the interaction force of the robot arm to interact with the object before the robot arm contacts the object without a sensor.
본 발명은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측하는 시스템 및 방법을 제공할 수 있다.The present invention learns the correlation between the real image of the robot's motion and time series motion information, the object's physical properties and the interaction force of the robot's arm, and applies the real image and the time series motion information of the robot's motion to the learning results. By doing so, it is possible to provide a system and method for predicting the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm.
그리고, 본 발명은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현하는 장치 및 방법을 제공할 수 있다.In addition, the present invention provides an apparatus and method for reproducing a physical sense to a user using only a camera without configuring a complex sensor network by providing feedback to a user who controls the robot arm according to the predicted interaction force of the robot arm can do.
또한, 본 발명은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있는 장치 및 방법을 제공할 수 있다.In addition, since the present invention can predict the interaction force of the robot arm using a real image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the robot arm predicted using the real image It is possible to provide an apparatus and method capable of determining whether a sensor is abnormal by comparing operating forces.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법은 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 단계; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 단계를 포함할 수 있다.A method for predicting a force of a robot arm according to an embodiment of the present invention includes: acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; Obtaining time-series motion information related to a change in motion of the robot arm over time; And predicting an interaction force of the robot arm based on the actual images and the time-series motion information.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 예측하는 단계는, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측할 수 있다.The predicting step of the method for predicting the force of the robot arm according to an embodiment of the present invention may include learning results of a correlation between the actual images, the time series motion information, the physical properties of the object, and the interaction force of the robot arm. It is possible to predict the interaction force of the robot arm by applying the actual images, the time series motion information, and the physical properties of the object to a database.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 상관 관계는, 상기 로봇의 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습될 수 있다.Correlation of the method for predicting the force of a robot arm according to an embodiment of the present invention includes inputting time series motion information of the robot and the real images into a deep learning algorithm of a neural network structure, and predicting the interaction force of the robot arm and the object It can be learned by comparing the physical properties of the object and the interaction force of the robot arm measured using the sensor.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 딥러닝 알고리즘은, 상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The deep learning algorithm of the method for predicting the force of a robot arm according to an embodiment of the present invention extracts a region related to the motion of the robot from the real images by using a convolutional neural network (CNN) in which the real images are input. ; Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input; Learning the relationship between the region and the time-series operation information that changes over time by inputting the extracted region and the class scores of the time-series operation information into a recurrent neural network (RNN); And calculating a class score of the learning result by the second FC layer into which the learning result of the RNN is input, and predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property value of the object. By performing, it is possible to learn the correlation between the actual images and time-series motion information of the robot and the interaction force of the robot arm.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 딥러닝 알고리즘은, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The deep learning algorithm of the method for predicting the force of a robot arm according to an embodiment of the present invention generates a virtual image representing a change in motion information over time based on the time series motion information in a graph form, and generates CNN (Convolutional Neural) Network) input to the first convolutional layer (convolutional layer); Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer; Matching a virtual image output from the first convolutional layer and a real image output from the second convolutional layer using a pooling layer; And classifying the matched information through a fully connected layer to perform the process of predicting the time series motion information and the interaction force of the robot arm corresponding to the real image, and the physical property value of the object. A correlation between time-series motion information of the robot and the interaction force of the robot arm may be learned.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 시계열 동작 정보는, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다.Time-series operation information of the method for predicting the force of a robot arm according to an embodiment of the present invention includes a change in power used by the motor of the robot arm to perform the operation of the robot arm that changes over time, and the robot arm It may include at least one of the position change and the motion change of the robot arm.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법은 상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함할 수 있다.A method for predicting a force of a robot arm according to an embodiment of the present invention includes predicting haptic sensing information using a material property of the object and a predicted interaction force of the robot arm; And providing feedback to the user of the robot arm according to the haptic sensing information.
본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법은 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 단계; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계; 및 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계를 포함할 수 있다.A method for learning the force of a robot arm according to an embodiment of the present invention includes: acquiring real images generated by photographing a motion of a robot arm related to an object, and time series motion information related to the motion of the robot arm; Predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and physical properties of the object by inputting the real images and the time series motion information into a deep learning algorithm; And comparing the predicted interaction force of the robot arm and the physical force of the object using the sensor and the physical force of the object, and comparing the actual images with the time series motion information, the physical property value of the object, and , Learning a correlation between the interaction forces of the robot arm.
본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법의 로봇 팔의 상호 작용 힘을 예측하는 단계는, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함할 수 있다.The step of predicting the interaction force of the robot arm in the method of learning the force of the robot arm according to an embodiment of the present invention, extracts a region related to the motion of the robot from the real images using a CNN in which the real images are input. To do; Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input; Learning the relationship between the region changing over time and the time series operation information by inputting the extracted region and the class scores of the time series operation information to the RNN; And calculating a class score of the learning result to a second FC layer into which the learning result of the RNN is input, and predicting the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical property value of the object. It can contain.
본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법의 로봇 팔의 상호 작용 힘을 예측하는 단계는, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함할 수 있다.The step of predicting the interaction force of the robot arm of the robot arm force learning method according to an embodiment of the present invention is a virtual image representing a change in motion information over time based on the time series motion information in a graph form Generating and inputting the first convolutional layer of the CNN; Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer; Matching the virtual image output from the first convolutional layer and the actual image output from the second convolutional layer using a pooling layer; And classifying the matched information through a fully connected layer to predict the time series motion information and the interaction force of the robot arm corresponding to the real image and the physical properties of the object.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치는 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 영상 획득부; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 동작 정보 획득부; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 힘 예측부를 포함할 수 있다.An apparatus for predicting a force of a robot arm according to an embodiment of the present invention includes an image acquiring unit for acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; A motion information acquisition unit that acquires time-series motion information related to a change in the motion of the robot arm over time; And a force predicting unit predicting an interaction force of the robot arm based on the actual images and the time-series motion information.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치의 힘 예측부는, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측할 수 있다.The force prediction unit of the robot arm force prediction apparatus according to an embodiment of the present invention is a database in which learning results of a correlation between the actual images, the time series motion information, the physical properties of the object, and the interaction force of the robot arm are stored. The actual images, the time series motion information, and the physical properties of the object may be applied to predict the interaction force of the robot arm.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치의 시계열 동작 정보는, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다.Time-series motion information of the robot arm force prediction device according to an embodiment of the present invention is a change in power used by the motor of the robot arm to perform the operation of the robot arm that changes over time, the robot arm It may include at least one of the position change and the motion change of the robot arm.
본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치는 상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부를 더 포함할 수 있다.An apparatus for predicting a force of a robotic arm according to an embodiment of the present invention includes a haptic sensing information predicting unit predicting haptic sensing information using the predicted interaction force between the object and the physical properties of the object; And a feedback unit providing feedback to the user of the robot arm according to the haptic sensing information.
본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치는 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 통신기; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부를 포함할 수 있다.The apparatus for learning the force of a robot arm according to an embodiment of the present invention includes a communicator for acquiring real images generated by photographing an operation of a robot arm related to an object and time series operation information related to the operation of the robot arm; A force predicting unit that inputs the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object; And comparing the predicted interaction force of the robot arm and the physical force of the object using the sensor and the physical force of the object, and comparing the actual images with the time series motion information, the physical property value of the object, and And, it may include a correlation learning unit for learning the correlation between the interaction force of the robot arm.
본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치의 힘 예측부는, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측할 수 있다.The force predicting unit of the force learning device of the robot arm according to an embodiment of the present invention extracts a region related to the robot's motion from the real images using the CNN to which the real images are input, and the time series motion information of the robot Calculates the class scores of the time-series motion information of the robot using the first FC layer to which is input, and inputs the extracted area and the class scores of the time-series motion information to the RNN to change the area and the time series that change over time. The relationship between the motion information and the interaction force of the robot arm corresponding to the time series motion information and the actual image by calculating the class scores of the learning result to the second FC layer into which the learning result of the RNN is input is calculated. The physical properties of the object can be predicted.
본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치의 힘 예측부는, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측할 수 있다.The force predicting unit of the force learning device of the robot arm according to an embodiment of the present invention generates a virtual image representing a change in motion information over time based on the time series motion information in a graph form, thereby generating the first convolution of the CNN A virtual image output from the first convolutional layer and the second inputted to a solution layer, the real images accumulated over time are input to a second convolutional layer different from the first convolutional layer. The actual images output from the convolution layer are matched using the integrated layer, and the matched information is classified through the FC layer, and the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical properties of the object Predictable.
본 발명의 일실시예에 의하면, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다. According to an embodiment of the present invention, a correlation between a real image photographing a robot's motion and time series motion information, an object's physical properties, and an interaction force of a robot arm is learned, and a real image and a time series motion photographing the robot's motion By applying the information to the learning results, the interaction force of the robot arm can be predicted without a sensor for measuring the interaction force of the robot arm.
그리고, 본 발명의 일실시예에 의하면, 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.In addition, according to an embodiment of the present invention, by providing feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, the physical sense is reproduced to the user using only the camera without configuring a complex sensor network. I can do it.
또한, 본 발명의 일실시예에 의하면, 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, according to an embodiment of the present invention, since the interaction force of the robot arm can be predicted using the actual image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the actual image are used. By comparing the predicted interaction force of the robot arm, it is possible to determine whether the sensor is abnormal.
도 1은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치의 구조를 나타내는 도면이다.
도3은 본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치가 영상과 동작 정보 및 로봇 팔의 상호 작용 힘간의 상관 관계를 학습하는 과정의 일례이다.
도4는 본 발명의 일실시예에 따른 CNN 및 RNN을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.
도5는 본 발명의 일실시예에 따른 CNN 을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.
도 6은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치의 구조를 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 일례이다.
도 8은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 다른 일례이다.
도 9는 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법을 도시한 플로우차트이다.
도 10은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법을 도시한 플로우차트이다.1 is a view showing an image-based force prediction system according to an embodiment of the present invention.
2 is a view showing the structure of a robotic force learning apparatus included in an image-based force prediction system according to an embodiment of the present invention.
3 is an example of a process in which a force learning device for a robot arm according to an embodiment of the present invention learns a correlation between an image, motion information, and interaction force of a robot arm.
4 is an example of a method for predicting an interaction force of a robot arm using CNN and RNN according to an embodiment of the present invention.
5 is an example of a method for predicting an interaction force of a robot arm using CNN according to an embodiment of the present invention.
6 is a view showing the structure of a robot arm force prediction device included in an image-based force prediction system according to an embodiment of the present invention.
7 is an example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.
8 is another example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.
9 is a flowchart illustrating a method for learning an interaction force of a robot arm according to an embodiment of the present invention.
10 is a flowchart illustrating a method for predicting an interaction force of a robot arm according to an embodiment of the present invention.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments, and the scope of the patent application right is not limited or limited by these embodiments. It should be understood that all modifications, equivalents, or substitutes for the embodiments are included in the scope of rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described on the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the embodiments, detailed descriptions thereof will be omitted.
본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법은 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치에 의해 수행될 수 있다. 또한, 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법은 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치에 의해 수행될 수 있다. The method for learning the interaction force of the robot arm according to an embodiment of the present invention may be performed by the force learning device of the robot arm included in the image-based force prediction system. In addition, the method for predicting the interaction force of the robot arm according to an embodiment of the present invention may be performed by the force prediction device of the robot arm included in the image-based force prediction system.
도 1은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템을 나타내는 도면이다. 1 is a view showing an image-based force prediction system according to an embodiment of the present invention.
영상 기반 힘 예측 시스템은 도 1에 도시된 바와 같이 로봇 팔의 힘 학습 장치(110)와 데이터베이스(120) 및 로봇 팔의 힘 예측 장치(130)를 포함할 수 있다.The image-based force prediction system may include a
로봇 팔의 힘 학습 장치(110)는 오브젝트와 관련된 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들과, 로봇 팔의 동작과 관련된 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 학습한 상관 관계를 데이터베이스(120)에 저장할 수 있다. 이때, 로봇 팔의 상호 작용 힘은 오브젝트를 잡는 로봇 팔의 그립력(Grip force), 오브젝트와 접촉하는 로봇 팔의 접촉력, 오브젝트를 당기는 로봇 팔의 힘(Pull force), 오브젝트를 미는 로봇 팔의 힘(Push force), 및 오브젝트를 잡거나 접촉한 로봇 팔의 힘의 방향 중 적어도 하나를 포함할 수 있다. The
이때, 오브젝트의 물성치는 오브젝트의 탄성, 강성, 밀도, 비중 중 적어도 하나를 포함할 수 있다. 또한, 시계열 동작 정보는 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 로봇 팔의 모터가 사용하는 전력의 변화, 로봇 팔의 위치 변화 및 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다. 또한, 시계열 동작 정보는 실제 영상들 각각에 대응하여 생성될 수 있다. 예를 들어, 0.1초 간격으로 실제 영상을 촬영하는 경우, 로봇 팔도 0.1 초 간격으로 해당 시점의 동작 정보를 생성할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 0.1초 간격으로 생성된 실제 영상의 프레임 각각에 대응하는 로봇 팔의 동작 정보를 매칭할 수 있다. At this time, the physical property value of the object may include at least one of elasticity, rigidity, density, and specific gravity of the object. In addition, the time series motion information may include at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. have. Also, time-series motion information may be generated corresponding to each of the actual images. For example, when a real image is taken at an interval of 0.1 second, the robot arm can also generate motion information at a corresponding time at an interval of 0.1 second. Then, the robot arm
로봇 팔의 힘 학습 장치(110)가 상관 관계를 학습하기 위한 구체적인 구성 및 동작은 이하 도 2내지 도 5를 참조하여 상세히 설명한다.The specific configuration and operation for the robot arm
데이터베이스(120)는 로봇 팔의 힘 학습 장치(110)가 학습한 실제 영상들과, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 저장하고 관리할 수 있다.The
로봇 팔의 힘 예측 장치(130)는 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 로봇 팔의 동작과 관련된 시계열 동작 정보, 및 오브젝트의 물성치 중 적어도 하나를 데이터베이스(120)에서 로드한 상관 관계에 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.The robot arm
로봇 팔의 힘 예측 장치(130)가 로봇 팔의 상호 작용 힘을 예측하기 위한 구체적인 구성 및 동작은 이하 도 6 내지 도 8을 참조하여 상세히 설명한다.The specific configuration and operation for the robot arm
영상 기반 힘 예측 시스템은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘(Interaction force)을 예측할 수 있다. 그리고, 영상 기반 힘 예측 시스템은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.The image-based force prediction system learns the correlation between the real image of the robot's motion and the time series motion information, the object's physical properties, and the interaction force of the robot's arm, and learns the real image and the time-series motion information of the robot's motion. By applying to the results, it is possible to predict the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm. In addition, the image-based force prediction system provides feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, thereby reproducing the physical sense to the user using only the camera without configuring a complex sensor network. .
또한, 영상 기반 힘 예측 시스템은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, since the image-based force prediction system can predict the interaction force of the robot arm using the actual image, when an error occurs in the sensor, the robot predicted by using the interaction force of the robot arm measured by the sensor and the actual image It is possible to determine whether the sensor is abnormal by comparing the interaction forces of the arms.
그리고, 영상 기반 힘 예측 시스템은 고가이고 복잡한 센서 네트워크 없이 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서를 이용한 종래의 로봇 팔의 상호 작용 힘 측정 시스템에 비하여 저가로 구현할 수 있다. 따라서, 로봇 팔의 상호 작용 힘을 측정, 또는 예측하는 시스템의 보급이 증가되도록 할 수 있다.In addition, since the image-based force prediction system can predict the interaction force of the robot arm without an expensive and complex sensor network, it can be implemented at a lower cost than the conventional robot arm interaction force measurement system using a sensor. Therefore, it is possible to increase the prevalence of the system for measuring or predicting the interaction force of the robot arm.
도 2는 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치의 구조를 나타내는 도면이다. 2 is a view showing the structure of a robotic force learning apparatus included in an image-based force prediction system according to an embodiment of the present invention.
로봇 팔의 힘 학습 장치(110)는 도 1에 도시된 바와 같이 영상 획득부(210), 동작 정보 획득부(220), 힘 예측부(230), 상관 관계 학습부(240)를 포함할 수 있다. 이때, 힘 예측부(230), 상관 관계 학습부(240)는 서로 다른 프로세스, 또는 하나의 프로세스에 포함된 프로그램을 수행하기 위한 각각의 모듈일 수 있다.The
영상 획득부(210)는 학습용 로봇 팔(202)에 연동된 카메라(201)가 오브젝트와 관련된 로봇 팔(202)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 영상 획득부(210)는 카메라(201)로부터 무선으로 실제 영상을 수신하는 통신기, 또는 카메라(201)로부터 실제 영상을 수신하기 위한 유선이 결합되는 포트일 수 있다.The
동작 정보 획득부(220)는 로봇 팔(202)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(202)로부터 무선으로 동작 정보를 수신하는 통신기, 또는 로봇 팔(202)로부터 동작 정보를 수신하기 위한 유선이 결합되는 포트일 수 있다.The motion
그리고, 도 2에서는 영상 획득부(210)와 동작 정보 획득부(220)가 별개의 구성으로 기재되어 있으나, 로봇 팔의 힘 학습 장치(110)가 하나의 통신기를 이용하여 실제 영상 획득 및 동작 정보 획득을 모두 수행할 수도 있다.In addition, in FIG. 2, although the
힘 예측부(230)는 실제 영상들 및 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다. 이때, 힘 예측부(230)는 CNN(Convolutional Neural Network) 과 RNN(Recurrent Neural Network)을 이용하여 로봇 팔의 상호 작용 힘을 예측하거나, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. The
CNN 및 RNN을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 방법은 이하 도 4를 참조하여 상세히 설명한다. 또한, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 방법은 이하 도 5를 참조하여 상세히 설명한다.A method of predicting the interaction force of the robot arm using CNN and RNN will be described in detail with reference to FIG. 4 below. In addition, a method of predicting the interaction force of the robot arm using only CNN will be described in detail with reference to FIG. 5 below.
상관 관계 학습부(240)는 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 실제 영상들과 시계열 동작 정보, 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The
구체적으로, 상관 관계 학습부(240)는 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치가 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 동일하거나, 오차 범위 이하의 차이가 있는 경우, 힘 예측부(230)가 입력한 실제 영상들과 시계열 동작 정보와 예측한 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계가 있는 것으로 학습할 수 있다. 또한, 상관 관계 학습부(240)는 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치가 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 오차 범위를 초과하는 차이가 있는 경우, 힘 예측부(230)가 입력한 실제 영상들과 시계열 동작 정보와 예측한 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계가 없다고 판단할 수 있다. 이때, 힘 예측부(230)는 실제 영상들과 시계열 동작 정보와 상관 관계가 있는 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘이 예측될 때까지 로봇 팔의 상호 작용 힘을 예측 하는 과정을 반복 수행할 수 있다.Specifically, in the
도3은 본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치가 영상과 동작 정보 및 로봇 팔의 상호 작용 힘간의 상관 관계를 학습하는 과정의 일례이다.3 is an example of a process in which a force learning device for a robot arm according to an embodiment of the present invention learns a correlation between an image, motion information, and interaction force of a robot arm.
로봇 팔의 힘 학습 장치(110)와 연결된 로봇 팔(320), 또는 수술 로봇 집게(240)에는 로봇 팔의 상호 작용 힘을 측정하기 위한 센서가 포함될 수 있다. 예를 들어, 로봇 팔(320), 또는 수술 로봇 집게(340)는 힘(Force) 센서, 토크(Torque) 센서 및 압력 센서 중 적어도 하나를 포함할 수 있는 The
로봇 팔(320)에 대응하는 카메라(310)는 로봇 팔(320)의 동작을 일정 시간 간격으로 촬영한 실제 영상(311)들을 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 또한, 로봇 팔(320)는 실제 영상(311)의 프레임들 각각에 대응하는 시계열 동작 정보(321)를 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 이때, 로봇 팔(320)은 센서를 이용하여 측정한 로봇 팔의 상호 작용 힘을 시계열 동작 정보(321)와 함께 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다.The
그리고, 로봇 팔의 힘 학습 장치(110)는 실제 영상(311)과 시계열 동작 정보(321)를 이용하여 로봇 팔(320)와 접촉하거나, 로봇 팔(320)이 잡고 있는 로봇 팔의 상호 작용 힘을 예측할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)는 실제 영상(311)을 이용하여 오브젝트의 위치 및 위치에 따른 오브젝트의 물성치를 예측할 수도 있다. 다음으로, 로봇 팔의 힘 학습 장치(110)는 예측한 로봇 팔의 상호 작용 힘을 로봇 팔(320)로부터 수신한 로봇 팔의 상호 작용 힘과 비교하여 실제 영상(311)들과 시계열 동작 정보(321), 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.Then, the robot arm
또한, 수술 로봇 집게(340)에 대응하는 카메라(330)는 수술 로봇 집게(340)의 동작을 일정 시간 간격으로 촬영한 실제 영상(331)들을 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 또한, 수술 로봇 집게(340)는 실제 영상(313)의 프레임들 각각에 대응하는 시계열 동작 정보(341)를 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 이때, 수술 로봇 집게(340)는 센서를 이용하여 수술 로봇 집게(340)로 잡고 있는 오브젝트와 접촉한 다른 로봇 팔의 상호 작용 힘을 측정할 수 있다. 그리고, 수술 로봇 집게(340)는 측정한 로봇 팔의 상호 작용 힘을 시계열 동작 정보(341)와 함께 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다.In addition, the
그리고, 로봇 팔의 힘 학습 장치(110)는 실제 영상(331)과 시계열 동작 정보(341)를 이용하여 수술 로봇 집게(340)로 잡고 있는 오브젝트와 접촉한 다른 오브젝트의 물성치 및 다른 로봇 팔의 상호 작용 힘을 예측할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)는 실제 영상(331)을 이용하여 다른 오브젝트의 위치 및 위치에 따른 다른 오브젝트의 물성치를 예측할 수도 있다. 다음으로, 로봇 팔의 힘 학습 장치(110)는 예측한 로봇 팔의 상호 작용 힘을 수술 로봇 집게(340)로부터 수신한 로봇 팔의 상호 작용 힘과 비교하여 실제 영상(331)들과 시계열 동작 정보(321), 다른 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In addition, the
이때, 카메라(310)와 카메라(330)의 촬영 간격이 0.1초인 경우, 로봇 팔(320), 및 수술 로봇 집게(340)도 각각 0.1 초 간격으로 해당 시점의 동작 정보를 생성하여 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 0.1초 간격으로 생성된 실제 영상들 각각에 대응하는 로봇 팔의 동작 정보를 매칭할 수 있다.At this time, when the shooting interval between the
도4는 본 발명의 일실시예에 따른 CNN 및 RNN을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.4 is an example of a method for predicting an interaction force of a robot arm using CNN and RNN according to an embodiment of the present invention.
먼저, 힘 예측부(230)는 카메라 1, 카메라 2와 같은 적어도 하나의 카메라들 각각으로부터 획득한 실제 영상들이 입력되는 CNN(411)를 이용하여 실제 영상들에서 로봇의 동작과 관련된 영역을 추출할 수 있다. 예를 들어, 힘 예측부(230)는 로봇 팔을 촬영하여 생성된 실제 영상에서 로봇 팔 및 오브젝트가 포함된 영역을 로봇의 동작과 관련된 영역으로 추출함으로써, RNN(420)에서 처리할 영상과 관련된 정보의 크기를 최소화할 수 있다.First, the
그리고, 하나의 로봇 팔을 2개의 카메라로 촬영한 경우, 힘 예측부(230)는 도 4에 도시된 바와 같이 카메라들 각각에 대응하는 CNN(411)에서 추출한 로봇의 동작과 관련된 영역을 제4 FC 계층(412)에서 통합하여 RNN(420)로 전달할 수 있다. 이때, 제4 FC 계층(412)은 서로 다른 영상에서 각각 추출한 로봇의 동작과 관련된 영역을 매칭하여 출력할 수 있다.In addition, when one robot arm is photographed with two cameras, the
또한, 힘 예측부(230)는 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층(413)으로 로봇의 시계열 동작 정보를 처리하여 RNN(420)으로 전달할 수 있다. 이때, 제1 FC 계층(413)은 도 4에 도시된 바와 같이 복수의 FC 계층들로 구성될 수 있다. 그리고, 제1 FC 계층(413)은 로봇의 시계열 동작 정보를 계산하여 출력할 수 있다.In addition, the
그리고, 힘 예측부(230)는 실제 영상 별로, CNN(411)과 제1 FC 계층(413)으로 구성된 입력망을 생성할 수 있다. 예를 들어, 실제 영상이 N개인 경우, 힘 예측부(230)는 도 4에 도시된 바와 같이 입력망 1(410) 내지 입력망 N을 생성할 수 있다. 이때, 입력망 2 내지 입력망 N은 입력되는 실제 영상 및 실제 영상에 대응하는 동작 정보만 사이가 있고, 실제 영상 및 동작 정보를 처리하기 위한 구조는 입력망 1(410)의 CNN(411) 및 제1 FC 계층(413)과 동일할 수 있다.In addition, the
다음으로, 힘 예측부(230)는 RNN(420)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수 있다. 예를 들어, RNN(420)는 도 4에 도시된 바와 같이 시간의 경과에 따른 복수의 입력망들로부터 각각 출력된 로봇의 동작과 관련된 영역 및 처리된 시계열 동작 정보를 복수의 계층으로 구성된 LSTM(long short term memory networks)에 입력하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수 있다. 도 4에서는 LSTM를 사용하고 있으나, 힘 예측부(230)는 LSTM이외에도 RNN에 해당하는 다른 네트워크를 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수도 있다. Next, the
마지막으로 힘 예측부(230)는 RNN의 학습 결과가 입력되는 제2 FC 계층(430)으로 학습 결과를 처리하여 시계열 동작 정보와 실제 영상에 대응하는 로봇 팔의 상호 작용 힘(Task1) 및 오브젝트의 물성치 (Task2)를 예측할 수 있다. 이때, 제2 FC 계층(430)은 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계들 각각의 클래스 점수들을 계산할 수 있다.Lastly, the
도5는 본 발명의 일실시예에 따른 CNN 을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.5 is an example of a method for predicting an interaction force of a robot arm using CNN according to an embodiment of the present invention.
먼저, 힘 예측부(230)는 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상(521)을 생성하여 CNN의 제1 콘볼루션 계층(520)에 입력할 수 있다. 예를 들어, 가상 영상(521)은 벡터화된 시계열 동작 정보(522,523)들 간의 공 분산 행렬(Covariance Matrix)을 영상으로 변환하여 생성될 수 있다. 이때, 제1 콘볼루션 계층(520)은 가상 영상(521)를 이용하여 시계열 동작 정보들 간의 상관 관계(Correlation) 을 분석할 수 있다. First, the
다음으로, 힘 예측부(230)는 시간의 경과에 따라 누적된 실제 영상(511)들을 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층(510)에 입력할 수 있다. Next, the
그 다음으로, 힘 예측부(230)는 제1 콘볼루션 계층(520)에서 출력된 가상 영상과 제2 콘볼루션 계층(510)에서 출력된 실제 영상들을 통합 계층(pooling layer)(530)을 이용하여 정합할 수 있다. Next, the
마지막으로, 힘 예측부(230)는 정합된 정보들을 FC 계층(fully connected layer)(540)을 통해 분류하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다.Lastly, the
도 6은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치의 구조를 나타내는 도면이다. 6 is a view showing the structure of a robot arm force prediction device included in an image-based force prediction system according to an embodiment of the present invention.
로봇 팔의 힘 예측 장치(130)는 도 6에 도시된 바와 같이 영상 획득부(610), 동작 정보 획득부(620), 힘 예측부(630), 햅틱 센싱 정보 예측부(640), 및 피드백부(640)를 포함할 수 있다. 이때, 힘 예측부(630), 햅틱 센싱 정보 예측부(640)는 서로 다른 프로세스, 또는 하나의 프로세스에 포함된 프로그램을 수행하기 위한 각각의 모듈일 수 있다.As shown in FIG. 6, the
영상 획득부(610)는 힘을 예측할 로봇 팔(602)에 연동된 카메라(601)가 오브젝트와 관련된 로봇 팔(602)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 영상 획득부(610)는 카메라(601)로부터 무선으로 실제 영상을 수신하는 통신기, 또는 카메라(601)로부터 실제 영상을 수신하기 위한 유선이 결합되는 포트일 수 있다. 이때, 실제 영상에는 로봇 팔(602)의 동작에 의하여 변형된 오브젝트가 포함될 수 있다. 구체적으로, 연속된 실제 영상에는 로봇 팔(602)의 동작에 의하여 오브젝트가 변형되어 가는 과정에 포함될 수 있다.The
동작 정보 획득부(620)는 로봇 팔(602)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 이때, 동작 정보 획득부(620)는 로봇 팔(602)로부터 무선으로 동작 정보를 수신하는 통신기, 또는 로봇 팔(602)로부터 동작 정보를 수신하기 위한 유선이 결합되는 포트일 수 있다.The motion
그리고, 도 6에서는 영상 획득부(610)와 동작 정보 획득부(620)가 별개의 구성으로 기재되어 있으나, 로봇 팔의 힘 예측 장치(130)가 하나의 통신기를 이용하여 실제 영상 획득 및 동작 정보 획득을 모두 수행할 수도 있다.In addition, although the
힘 예측부(630)는 실제 영상들과 시계열 동작 정보에 기초하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. 이때, 힘 예측부(630)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들, 시계열 동작 정보 및 오브젝트의 물성치를 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.The
햅틱 센싱 정보 예측부(640)는 오브젝트의 물성치(material property)와 예측한 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측할 수 있다.The haptic sensing
피드백부(640)는 예측된 햅틱 센싱 정보에 따라 로봇 팔 제어기(603)에 피드백 신호를 전송하여 로봇 팔의 사용자에게 피드백을 제공할 수 있다. 이때, 피드백부(640)는 로봇 팔 제어기(603)에 무선으로 피드백 신호를 전송하는 통신기, 또는 로봇 팔 제어기(603)에 피드백 신호를 전송하기 위한 유선이 결합되는 포트일 수 있다.The
로봇 팔의 힘 예측 장치(130)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들과 시계열 동작 정보 및 오브젝트의 물성치를 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다The robot arm
도 7은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 일례이다. 7 is an example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.
로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)에 연동된 카메라로부터 로봇 팔(602)의 동작을 촬영하여 생성된 실제 영상들(710)을 획득할 수 있다. 이때, 연속된 실제 영상들(710)은 도 7에 도시된 바와 같이 로봇 팔(602)이 오브젝트와 접촉하는 영상(711)부터 로봇 팔(602)이 접촉한 오브젝트를 잡는 영상(714)와 같이 로봇 팔(602)이 오브젝트와 상호 작용하는 과정을 순차적으로 촬영한 영상일 수 있다. 또한, 로봇 팔(602)는 로봇 팔 제어기(603)가 로봇 팔(602)에 전송한 제어 신호(706)에 따라 동작할 수 있다.The
그리고, 로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)로부터 로봇 팔(602)의 동작과 관련된 시계열 동작 정보(720)를 획득할 수 있다.Then, the robot arm
다음으로, 로봇 팔의 힘 예측 장치(130)는CNN과 FC 계층(701)을 이용하여 실제 영상들(710)과 시계열 동작 정보(720)를 전처리 할 수 있다. 이때, 로봇 팔의 힘 예측 장치(130)는CNN을 이용하여 실제 영상들(710)에서 로봇의 동작과 관련된 영역을 추출하여 RNN(702)로 전달할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)는 FC계층으로 로봇의 시계열 동작 정보를 처리하여 RNN(702)로 전달할 수 있다. Next, the robot arm
그 다음으로, 로봇 팔의 힘 예측 장치(130)는 RNN(702)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 확인할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 데이터베이스(120)에서 확인한 영역과 시계열 동작 정보들 간의 관계에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 검색할 수 있다.Next, the robot arm
다음으로, 로봇 팔의 힘 예측 장치(130)는 검색한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 힘 예측 결과(703)로 출력할 수 있다.Next, the robot arm
또한, 로봇 팔의 힘 예측 장치(130)는 힘 예측 결과(703)에 따라 사용자에게 피드백할 햅틱 센싱 정보를 예측할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 햅틱 센싱 정보가 포함된 피드백 신호(730)를 로봇 팔 제어기(603)로 전송할 수 있다. 이때, 로봇 팔 제어기(603)는 수신한 피드백 신호(730)에 따라 로봇 팔(602)를 제어하는 사용자에게 피드백을 제공할 수 있다.In addition, the robot arm
도 8은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 다른 일례이다. 8 is another example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.
도 8은 로봇 팔(602)이 수술용 로봇 팔과 같이 파손 가능한 오브젝트(수술 도구, 환자의 장기)와 상호 작용하는 경우, 로봇 팔의 힘 예측 장치(130)가 오브젝트의 파손 위험을 경고하는 실시예이다.FIG. 8 shows that when the
로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)에 연동된 카메라로부터 로봇 팔(602)의 동작을 촬영하여 생성된 실제 영상들(810)을 획득할 수 있다. 이때, 실제 영상들(810)은 로봇 팔(602)의 동작에 의하여 오브젝트가 변형되어 가는 과정의 첫 번째 영상(811) 내지 현재 영상(814)을 포함할 수 있다. 또한, 로봇 팔(602)는 로봇 팔 제어기(603)가 로봇 팔(602)에 전송한 제어 신호(800)에 따라 동작할 수 있다.The apparatus for predicting the force of the
그리고, 로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)로부터 로봇 팔(602)의 동작과 관련된 시계열 동작 정보(820)를 획득할 수 있다.Then, the robot arm
다음으로, 로봇 팔의 힘 예측 장치(130)는CNN과 FC 계층(801)을 이용하여 실제 영상들(810)과 시계열 동작 정보(820)를 전처리 할 수 있다. 이때, 로봇 팔의 힘 예측 장치(130)는CNN을 이용하여 실제 영상들(810)에서 로봇의 동작과 관련된 영역을 추출하여 RNN(802)로 전달할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)는 FC계층으로 로봇의 시계열 동작 정보를 처리하여 RNN(802)로 전달할 수 있다. Next, the robot arm
그 다음으로, 로봇 팔의 힘 예측 장치(130)는 RNN(802)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 확인할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 데이터베이스(120)에서 확인한 영역과 시계열 동작 정보들 간의 관계에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 검색할 수 있다. 다음으로, 로봇 팔의 힘 예측 장치(130)는 검색한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 힘 예측 결과(803)로 출력할 수 있다.Next, the robot arm
이때, 로봇 팔의 힘 예측 장치(130)는 힘 예측 결과(803)에 포함된 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 오브젝트의 파손 가능성을 판단할 수 있다. 그리고, 오브젝트의 파손 가능성이 임계값 이상인 경우, 로봇 팔의 힘 예측 장치(130)는 오브젝트가 파손될 가능성을 경고하는 신호(840)를 로봇 팔 제어기(603)로 전송할 수 있다. 이때, 로봇 팔 제어기(603)는 수신한 신호(840)에 따라 경고음, 또는 경고 램프를 동작하거나, 오브젝트가 파손되는 방향으로의 제어 신호(800)를 로봇 팔(602)로 전송하지 않도록 설정할 수 있다.At this time, the
도 9는 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법을 도시한 플로우차트이다.9 is a flowchart illustrating a method for learning an interaction force of a robot arm according to an embodiment of the present invention.
단계(910)에서 영상 획득부(210)는 학습용 로봇 팔(202)에 연동된 카메라(201)가 오브젝트와 관련된 로봇 팔(202)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(202)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)가 하나의 통신기를 이용하여 실제 영상 및 시계열 동작 정보를 모두 획득할 수도 있다.In
단계(920)에서 힘 예측부(230)는 실제 영상들 및 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다. 이때, 힘 예측부(230)는 CNN 과 RNN을 이용하여 로봇 팔의 상호 작용 힘을 예측하거나, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. In
단계(930)에서 상관 관계 학습부(240)는 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 실제 영상들과 시계열 동작 정보, 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In
도 10은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법을 도시한 플로우차트이다.10 is a flowchart illustrating a method for predicting an interaction force of a robot arm according to an embodiment of the present invention.
단계(1010)에서 영상 획득부(610)는 힘을 예측할 로봇 팔(602)에 연동된 카메라(601)가 오브젝트와 관련된 로봇 팔(602)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 동작 정보 획득부(620)는 로봇 팔(602)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)가 하나의 통신기를 이용하여 실제 영상 및 시계열 동작 정보를 모두 획득할 수도 있다.In
단계(1020)에서 힘 예측부(630)는 실제 영상들과 시계열 동작 정보에 기초하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. 이때, 힘 예측부(630)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들, 시계열 동작 정보 및 오브젝트의 물성치를 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.In
단계(1030)에서 햅틱 센싱 정보 예측부(640)는 오브젝트의 물성치와 단계(1020)에서 예측한 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측할 수 있다.In
단계(1040)에서 피드백부(640)는 단계(1030)에서 예측된 햅틱 센싱 정보에 따라 로봇 팔 제어기(603)에 피드백 신호를 전송하여 로봇 팔의 사용자에게 피드백을 제공할 수 있다. In
본 발명은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다. The present invention learns the correlation between the real image of the robot's motion and time series motion information, the object's physical properties and the interaction force of the robot's arm, and applies the real image and the time series motion information of the robot's motion to the learning results. By doing so, it is possible to predict the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm.
그리고, 본 발명은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.In addition, the present invention provides feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, thereby reproducing the physical sense to the user using only the camera without configuring a complex sensor network.
또한, 본 발명은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, since the present invention can predict the interaction force of the robot arm using the actual image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the robot arm predicted using the actual image By comparing the operating force, it is possible to determine whether the sensor is abnormal.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited drawing, a person skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
110: 로봇 팔의 힘 학습 장치
120: 데이터베이스
130: 로봇 팔의 힘 예측 장치110: robot arm force learning device
120: database
130: robot arm force prediction device
Claims (20)
시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 시계열 동작 정보를 획득하는 단계; 및
상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 단계
를 포함하고,
상기 예측하는 단계는,
상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트들의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 방법.Obtaining real images generated by continuously photographing interactions between objects over time;
Obtaining time-series motion information of a robot arm related to a change in position of the objects or deformation of the objects over time; And
Predicting an interaction force between the objects based on a change in the position of the objects or a deformation of the objects included in the real image.
Including,
The predicting step,
The actual images, the time series motion information, the physical properties of the objects and the learning result of the correlation between the interaction force of the robot arm are stored in the database, and the physical images, the time series motion information, and the physical properties of the object are applied to the database. Interactive force prediction method for predicting the interaction force of a robot arm.
상기 상관 관계는,
상기 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습되는 상호 작용 힘 예측 방법.According to claim 1,
The correlation is
The time series motion information and the actual images are input to a deep learning algorithm of a neural network structure, and the predicted interaction force of the robot arm and the physical force value of the object and the physical force value of the robot arm measured using the sensor and the physical property value of the object A method of predicting interaction forces that is learned by comparison.
상기 딥러닝 알고리즘은,
상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정;
상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정;
추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및
상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정
을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법.The method of claim 5,
The deep learning algorithm,
Extracting a region related to the motion of the robot from the real images by using a convolutional neural network (CNN) to which the real images are input;
Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input;
Learning the relationship between the region and the time-series operation information that changes over time by inputting the extracted region and the class scores of the time-series operation information into a recurrent neural network (RNN); And
The process of predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object by calculating class scores of the learning result to the second FC layer where the learning result of the RNN is input.
An interactive force prediction method for learning a correlation between the actual images and time series motion information of the robot and the interaction force of the robot arm by performing.
상기 딥러닝 알고리즘은,
상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정;
시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정;
상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및
정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정
을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법.The method of claim 5,
The deep learning algorithm,
Generating a virtual image representing a change of motion information over time based on the time-series motion information in a graph form and inputting it to a first convolutional layer of a convolutional neural network (CNN);
Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer;
Matching a virtual image output from the first convolutional layer and a real image output from the second convolutional layer using a pooling layer; And
The process of predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object by classifying the matched information through a fully connected layer
An interactive force prediction method for learning a correlation between the actual images and time series motion information of the robot and the interaction force of the robot arm by performing.
상기 시계열 동작 정보는,
시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 방법.According to claim 1,
The time series operation information,
Interaction force prediction including at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. Way.
상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및
상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함하는 상호 작용 힘 예측 방법.According to claim 1,
Predicting haptic sensing information using a material property of the object and a predicted interaction force of the robot arm; And
And providing feedback to the user of the robot arm according to the haptic sensing information.
상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계;
예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계; 및
상기 상관 관계를 데이터베이스에 저장하는 단계
를 포함하는 로봇 팔의 힘 학습 방법.Obtaining real images generated by photographing the motion of the robot arm associated with the object and time series motion information related to the motion of the robot arm;
Predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and physical properties of the object by inputting the real images and the time series motion information into a deep learning algorithm;
Comparing the predicted interaction force of the robot arm and the physical force of the object with the sensor's interaction force and the physical force of the object, the actual images and the time series motion information, the physical property value of the object, and Learning a correlation between the interaction forces of the robot arm; And
Storing the correlation in a database
Robot arm force learning method comprising a.
상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,
상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계;
상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계;
추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및
상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계
를 포함하는 로봇 팔의 힘 학습 방법.The method of claim 10,
The step of predicting the interaction force of the robot arm,
Extracting a region related to the motion of the robot from the real images using a CNN to which the real images are input;
Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input;
Learning the relationship between the region changing over time and the time series operation information by inputting the extracted region and the class scores of the time series operation information to the RNN; And
Predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property value of the object by calculating class scores of the learning result to the second FC layer into which the learning result of the RNN is input.
Robot arm force learning method comprising a.
상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,
상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계;
시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계;
상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및
정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계
를 포함하는 로봇 팔의 힘 학습 방법.The method of claim 10,
The step of predicting the interaction force of the robot arm,
Generating a virtual image representing a change in motion information over time based on the time series motion information in a graph form and inputting it to a first convolutional layer of a CNN;
Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer;
Matching the virtual image output from the first convolutional layer and the actual image output from the second convolutional layer using a pooling layer; And
Classifying the matched information through a fully connected layer to predict the time series motion information and the interaction force of the robot arm corresponding to the real image and the physical property value of the object
Robot arm force learning method comprising a.
시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 시계열 동작 정보를 획득하는 동작 정보 획득부; 및
상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 힘 예측부
를 포함하고,
상기 힘 예측부는,
상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 장치.An image acquiring unit for acquiring an actual image generated by continuously photographing interactions between objects over time;
A motion information acquiring unit for acquiring time-series motion information of a robot arm related to a change in position of the objects or deformation of the objects over time; And
A force prediction unit predicting an interaction force between the objects based on a change in the position of the objects or a deformation of the objects included in the real image
Including,
The force prediction unit,
The actual images, the time series motion information, the physical properties of the object and the learning result of the correlation between the interaction force of the robot arm are stored in the database, and the physical images, the time series motion information, and the physical properties of the object are applied to the database. An interaction force prediction device that predicts the interaction force of a robot arm.
상기 시계열 동작 정보는,
시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 장치.The method of claim 13,
The time series operation information,
Interaction force prediction including at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. Device.
상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및
상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부
를 더 포함하는 상호 작용 힘 예측 장치.The method of claim 13,
A haptic sensing information prediction unit predicting haptic sensing information using the predicted interaction force of the robot arm with the physical properties of the object; And
A feedback unit that provides feedback to the user of the robot arm according to the haptic sensing information
Interaction force prediction device further comprising.
상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및
예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부
를 포함하는 로봇 팔의 힘 학습 장치.A communicator for acquiring real-time images generated by photographing the motion of the robot arm associated with the object and time-series motion information related to the motion of the robot arm;
A force predicting unit that inputs the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object; And
Comparing the predicted interaction force of the robot arm and the physical force of the object with the sensor's interaction force and the physical force of the object, the actual images and the time series motion information, the physical property value of the object, and Correlation learning unit for learning the correlation between the interaction forces of the robot arm
Robot arm force learning device comprising a.
상기 힘 예측부는,
상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치.The method of claim 18,
The force prediction unit,
A class score of time-series motion information of the robot is extracted by using a first FC layer to which the time-series motion information of the robot is input, by extracting a region related to the robot motion from the real images using a CNN where the real images are input. Second, learning the relationship between the region changing over time and the time series operation information by inputting the extracted region and the class scores of the time series operation information to the RNN, and inputting the learning result of the RNN A force learning device for a robot arm that calculates class scores of the learning result by the FC layer and predicts the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object.
상기 힘 예측부는,
상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치.The method of claim 18,
The force prediction unit,
Based on the time-series motion information, a virtual image representing a change in motion information over time in a graph form is generated and input to a first convolutional layer of CNN, and the accumulated real images over time are removed from the virtual image. Inputted to a second convolutional layer different from one convolutional layer, the virtual image output from the first convolutional layer and the actual images output from the second convolutional layer are matched and matched using an integrated layer. A robot arm force learning device that classifies information through an FC layer to predict the interaction force of the robot arm corresponding to the time series motion information and the actual image, and the physical property value of the object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180066861A KR102094360B1 (en) | 2018-06-11 | 2018-06-11 | System and method for predicting force based on image |
PCT/KR2018/011808 WO2019240330A1 (en) | 2018-06-11 | 2018-10-08 | Image-based strength prediction system and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180066861A KR102094360B1 (en) | 2018-06-11 | 2018-06-11 | System and method for predicting force based on image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190140546A KR20190140546A (en) | 2019-12-20 |
KR102094360B1 true KR102094360B1 (en) | 2020-03-30 |
Family
ID=68843407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180066861A KR102094360B1 (en) | 2018-06-11 | 2018-06-11 | System and method for predicting force based on image |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102094360B1 (en) |
WO (1) | WO2019240330A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102386009B1 (en) * | 2020-07-30 | 2022-04-13 | 네이버랩스 주식회사 | Method for learning robot task and robot system using the same |
CN112530553A (en) * | 2020-12-03 | 2021-03-19 | 中国科学院深圳先进技术研究院 | Method and device for estimating interaction force between soft tissue and tool |
KR102401800B1 (en) * | 2021-10-28 | 2022-05-26 | 주식회사 오비고 | Methods for learning and experiencing virtual object with actual feeling and devices using the same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008008746A (en) | 2006-06-29 | 2008-01-17 | Univ Of Tokyo | Tactile sensor using reflected image |
JP2010066028A (en) | 2008-09-08 | 2010-03-25 | Hiroshima Univ | Applied force estimation apparatus and method |
US9327406B1 (en) | 2014-08-19 | 2016-05-03 | Google Inc. | Object segmentation based on detected object-specific visual cues |
JP2017030135A (en) | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101199940B1 (en) * | 2010-12-15 | 2012-11-09 | 전자부품연구원 | Apparatus for image tracking |
-
2018
- 2018-06-11 KR KR1020180066861A patent/KR102094360B1/en active IP Right Grant
- 2018-10-08 WO PCT/KR2018/011808 patent/WO2019240330A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008008746A (en) | 2006-06-29 | 2008-01-17 | Univ Of Tokyo | Tactile sensor using reflected image |
JP2010066028A (en) | 2008-09-08 | 2010-03-25 | Hiroshima Univ | Applied force estimation apparatus and method |
US9327406B1 (en) | 2014-08-19 | 2016-05-03 | Google Inc. | Object segmentation based on detected object-specific visual cues |
JP2017030135A (en) | 2015-07-31 | 2017-02-09 | ファナック株式会社 | Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion |
Non-Patent Citations (3)
Title |
---|
AVILES et al. 7th International IEEE/EMBS Conference on Neural Engineering (NER), IEEE, 2015.04.24, pp 86-89. |
AVILES et al., 2015 Conference of the International Fuzzy Systems Association and the European Society for Fuzzy Logic and Technology, 2015.06.30., pp.1465-1472* |
AVILES et al., 4th International Conference on Image Processing Theory, Tools and Applications (IPTA), IEEE, 2014.10.17., pp.1-6* |
Also Published As
Publication number | Publication date |
---|---|
WO2019240330A1 (en) | 2019-12-19 |
KR20190140546A (en) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11605161B2 (en) | Surgical workflow and activity detection based on surgical videos | |
CN112714896B (en) | Self-aware vision-text common ground navigation agent | |
US11222239B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
KR102564855B1 (en) | Device and method to recognize object and face expression, and device and method to train obejct and face expression robust to facial change | |
KR102094360B1 (en) | System and method for predicting force based on image | |
KR102036955B1 (en) | Method for recognizing subtle facial expression using deep learning based analysis of micro facial dynamics and apparatus therefor | |
KR101986002B1 (en) | Artificial agents and method for human intention understanding based on perception-action connected learning, recording medium for performing the method | |
EP3499412B1 (en) | Object recognition and liveness detection and apparatus | |
KR102133728B1 (en) | Device, method and readable media for multimodal recognizing emotion based on artificial intelligence | |
KR20190018276A (en) | Method and apparatus for training model and for recognizing bawed on the model | |
KR20160012537A (en) | Neural network training method and apparatus, data processing apparatus | |
Hellman et al. | Functional contour-following via haptic perception and reinforcement learning | |
US20210034842A1 (en) | Method, electronic device, and computer readable medium for image identification | |
KR20200085696A (en) | Method of processing video for determining emotion of a person | |
Sarikaya et al. | Surgical gesture recognition with optical flow only | |
JP2023513613A (en) | Adaptive co-distillation model | |
KR20210018586A (en) | Method and apparatus for identifying video content using biometric features of characters | |
Ramakrishnan et al. | A novel approach for emotion recognition for pose invariant images using prototypical networks | |
KR102394759B1 (en) | Method of machine-learning by collecting features of data and apparatus thereof | |
Hao et al. | ACT-Net: Anchor-Context Action Detection in Surgery Videos | |
Mocanu et al. | Human activity recognition with convolution neural network using tiago robot | |
KR102573796B1 (en) | Apparatus and method for determining musculoskeletal disease | |
CN116648700A (en) | Audio data transcription training learning algorithm identifies visible medical devices in image data | |
Liu et al. | Active Sparse Conversations for Improved Audio-Visual Embodied Navigation | |
Roubleh et al. | Video based human activities recognition using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |