KR102094360B1 - System and method for predicting force based on image - Google Patents

System and method for predicting force based on image Download PDF

Info

Publication number
KR102094360B1
KR102094360B1 KR1020180066861A KR20180066861A KR102094360B1 KR 102094360 B1 KR102094360 B1 KR 102094360B1 KR 1020180066861 A KR1020180066861 A KR 1020180066861A KR 20180066861 A KR20180066861 A KR 20180066861A KR 102094360 B1 KR102094360 B1 KR 102094360B1
Authority
KR
South Korea
Prior art keywords
robot arm
force
motion information
time
interaction force
Prior art date
Application number
KR1020180066861A
Other languages
Korean (ko)
Other versions
KR20190140546A (en
Inventor
임수철
황원준
신호철
이동한
고대관
Original Assignee
동국대학교 산학협력단
아주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단, 아주대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020180066861A priority Critical patent/KR102094360B1/en
Priority to PCT/KR2018/011808 priority patent/WO2019240330A1/en
Publication of KR20190140546A publication Critical patent/KR20190140546A/en
Application granted granted Critical
Publication of KR102094360B1 publication Critical patent/KR102094360B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L11/00Measuring steady or quasi-steady pressure of a fluid or a fluent solid material by means not provided for in group G01L7/00 or G01L9/00
    • G01L11/02Measuring steady or quasi-steady pressure of a fluid or a fluent solid material by means not provided for in group G01L7/00 or G01L9/00 by optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

영상 기반 힘 예측 시스템 및 그 방법이 개시된다. 영상 기반 힘 예측 시스템의 로봇 팔의 힘 예측 방법은 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 단계; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 단계를 포함할 수 있다.An image-based force prediction system and method are disclosed. A method of predicting a force of a robot arm of an image-based force prediction system includes acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; Obtaining time-series motion information related to a change in motion of the robot arm over time; And predicting an interaction force of the robot arm based on the actual images and the time-series motion information.

Description

영상 기반 힘 예측 시스템 및 그 방법{SYSTEM AND METHOD FOR PREDICTING FORCE BASED ON IMAGE}Image-based force prediction system and its method {SYSTEM AND METHOD FOR PREDICTING FORCE BASED ON IMAGE}

본 발명은 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for predicting the interaction force of a robot arm using an image.

로봇 팔의 상호 작용 힘(Interaction force)은 오브젝트에 가하는 로봇 팔의 힘 및 오브젝트의 물성치에 의하여 로봇 팔에 피드백되는 힘을 포함하고 있으므로, 사용자가 오브젝트와 상호 작용하는 경우, 촉각을 통하여 느끼는 힘과 유사하다. 따라서, 로봇의 팔을 정밀하게 제어하기 위해서는 로봇 팔의 상호 작용 힘을 측정할 필요가 있다. Since the interaction force of the robot arm includes the force of the robot arm applied to the object and the force fed back to the robot arm by the physical properties of the object, when the user interacts with the object, the force felt through tactile sense similar. Therefore, in order to precisely control the arm of the robot, it is necessary to measure the interaction force of the robot arm.

종래의 로봇 팔의 상호 작용 힘을 측정하는 장치는 로봇에 부착한 힘 센서, 또는 토크 센서를 이용하여 로봇 팔의 상호 작용 힘을 측정하였다. 그러나, 힘 센서, 및 토크 센서는 고가의 장치여서 로봇 팔의 가격 상승 요인이 된다는 문제가 있었다. Conventional apparatus for measuring the interaction force of the robot arm measures the interaction force of the robot arm using a force sensor or a torque sensor attached to the robot. However, since the force sensor and the torque sensor are expensive devices, there is a problem that the price increases of the robot arm.

또한, 로봇 팔의 구조와 크기에 따라서는 힘 센서, 또는 토크 센서를 부착하기 어려운 경우가 발생한다는 한계도 있었다.In addition, depending on the structure and size of the robot arm, there is a limit that it is difficult to attach a force sensor or a torque sensor.

그리고, 힘 센서, 또는 토크 센서는 로봇 팔이 오브젝트와 접촉한 후에 로봇 팔의 상호 작용 힘을 측정하므로, 오브젝트의 강도가 약한 경우, 로봇 팔이 오브젝트와 접촉한 후 힘 센서, 또는 토크 센서가 로봇 팔의 상호 작용 힘을 측정하기 전에 오브젝트가 파손될 가능성도 있었다.In addition, the force sensor or the torque sensor measures the interaction force of the robot arm after the robot arm contacts the object, so when the strength of the object is weak, the force sensor or the torque sensor is the robot after the robot arm contacts the object. There was also the possibility of the object breaking before measuring the interaction force of the arm.

따라서, 센서 없이 로봇 팔이 오브젝트와 접촉 전에 오브젝트와 상호 작용할 로봇 팔의 상호작용 힘을 측정, 또는 예측하는 방법이 필요한 실정이다.Therefore, there is a need for a method of measuring or predicting the interaction force of the robot arm to interact with the object before the robot arm contacts the object without a sensor.

본 발명은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측하는 시스템 및 방법을 제공할 수 있다.The present invention learns the correlation between the real image of the robot's motion and time series motion information, the object's physical properties and the interaction force of the robot's arm, and applies the real image and the time series motion information of the robot's motion to the learning results. By doing so, it is possible to provide a system and method for predicting the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm.

그리고, 본 발명은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현하는 장치 및 방법을 제공할 수 있다.In addition, the present invention provides an apparatus and method for reproducing a physical sense to a user using only a camera without configuring a complex sensor network by providing feedback to a user who controls the robot arm according to the predicted interaction force of the robot arm can do.

또한, 본 발명은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있는 장치 및 방법을 제공할 수 있다.In addition, since the present invention can predict the interaction force of the robot arm using a real image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the robot arm predicted using the real image It is possible to provide an apparatus and method capable of determining whether a sensor is abnormal by comparing operating forces.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법은 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 단계; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 단계를 포함할 수 있다.A method for predicting a force of a robot arm according to an embodiment of the present invention includes: acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; Obtaining time-series motion information related to a change in motion of the robot arm over time; And predicting an interaction force of the robot arm based on the actual images and the time-series motion information.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 예측하는 단계는, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측할 수 있다.The predicting step of the method for predicting the force of the robot arm according to an embodiment of the present invention may include learning results of a correlation between the actual images, the time series motion information, the physical properties of the object, and the interaction force of the robot arm. It is possible to predict the interaction force of the robot arm by applying the actual images, the time series motion information, and the physical properties of the object to a database.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 상관 관계는, 상기 로봇의 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습될 수 있다.Correlation of the method for predicting the force of a robot arm according to an embodiment of the present invention includes inputting time series motion information of the robot and the real images into a deep learning algorithm of a neural network structure, and predicting the interaction force of the robot arm and the object It can be learned by comparing the physical properties of the object and the interaction force of the robot arm measured using the sensor.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 딥러닝 알고리즘은, 상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The deep learning algorithm of the method for predicting the force of a robot arm according to an embodiment of the present invention extracts a region related to the motion of the robot from the real images by using a convolutional neural network (CNN) in which the real images are input. ; Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input; Learning the relationship between the region and the time-series operation information that changes over time by inputting the extracted region and the class scores of the time-series operation information into a recurrent neural network (RNN); And calculating a class score of the learning result by the second FC layer into which the learning result of the RNN is input, and predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property value of the object. By performing, it is possible to learn the correlation between the actual images and time-series motion information of the robot and the interaction force of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 딥러닝 알고리즘은, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The deep learning algorithm of the method for predicting the force of a robot arm according to an embodiment of the present invention generates a virtual image representing a change in motion information over time based on the time series motion information in a graph form, and generates CNN (Convolutional Neural) Network) input to the first convolutional layer (convolutional layer); Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer; Matching a virtual image output from the first convolutional layer and a real image output from the second convolutional layer using a pooling layer; And classifying the matched information through a fully connected layer to perform the process of predicting the time series motion information and the interaction force of the robot arm corresponding to the real image, and the physical property value of the object. A correlation between time-series motion information of the robot and the interaction force of the robot arm may be learned.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 시계열 동작 정보는, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다.Time-series operation information of the method for predicting the force of a robot arm according to an embodiment of the present invention includes a change in power used by the motor of the robot arm to perform the operation of the robot arm that changes over time, and the robot arm It may include at least one of the position change and the motion change of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법은 상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함할 수 있다.A method for predicting a force of a robot arm according to an embodiment of the present invention includes predicting haptic sensing information using a material property of the object and a predicted interaction force of the robot arm; And providing feedback to the user of the robot arm according to the haptic sensing information.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법은 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 단계; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계; 및 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계를 포함할 수 있다.A method for learning the force of a robot arm according to an embodiment of the present invention includes: acquiring real images generated by photographing a motion of a robot arm related to an object, and time series motion information related to the motion of the robot arm; Predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and physical properties of the object by inputting the real images and the time series motion information into a deep learning algorithm; And comparing the predicted interaction force of the robot arm and the physical force of the object using the sensor and the physical force of the object, and comparing the actual images with the time series motion information, the physical property value of the object, and , Learning a correlation between the interaction forces of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법의 로봇 팔의 상호 작용 힘을 예측하는 단계는, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함할 수 있다.The step of predicting the interaction force of the robot arm in the method of learning the force of the robot arm according to an embodiment of the present invention, extracts a region related to the motion of the robot from the real images using a CNN in which the real images are input. To do; Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input; Learning the relationship between the region changing over time and the time series operation information by inputting the extracted region and the class scores of the time series operation information to the RNN; And calculating a class score of the learning result to a second FC layer into which the learning result of the RNN is input, and predicting the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical property value of the object. It can contain.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법의 로봇 팔의 상호 작용 힘을 예측하는 단계는, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함할 수 있다.The step of predicting the interaction force of the robot arm of the robot arm force learning method according to an embodiment of the present invention is a virtual image representing a change in motion information over time based on the time series motion information in a graph form Generating and inputting the first convolutional layer of the CNN; Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer; Matching the virtual image output from the first convolutional layer and the actual image output from the second convolutional layer using a pooling layer; And classifying the matched information through a fully connected layer to predict the time series motion information and the interaction force of the robot arm corresponding to the real image and the physical properties of the object.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치는 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 영상 획득부; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 동작 정보 획득부; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 힘 예측부를 포함할 수 있다.An apparatus for predicting a force of a robot arm according to an embodiment of the present invention includes an image acquiring unit for acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; A motion information acquisition unit that acquires time-series motion information related to a change in the motion of the robot arm over time; And a force predicting unit predicting an interaction force of the robot arm based on the actual images and the time-series motion information.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치의 힘 예측부는, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측할 수 있다.The force prediction unit of the robot arm force prediction apparatus according to an embodiment of the present invention is a database in which learning results of a correlation between the actual images, the time series motion information, the physical properties of the object, and the interaction force of the robot arm are stored. The actual images, the time series motion information, and the physical properties of the object may be applied to predict the interaction force of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치의 시계열 동작 정보는, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다.Time-series motion information of the robot arm force prediction device according to an embodiment of the present invention is a change in power used by the motor of the robot arm to perform the operation of the robot arm that changes over time, the robot arm It may include at least one of the position change and the motion change of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치는 상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부를 더 포함할 수 있다.An apparatus for predicting a force of a robotic arm according to an embodiment of the present invention includes a haptic sensing information predicting unit predicting haptic sensing information using the predicted interaction force between the object and the physical properties of the object; And a feedback unit providing feedback to the user of the robot arm according to the haptic sensing information.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치는 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 통신기; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부를 포함할 수 있다.The apparatus for learning the force of a robot arm according to an embodiment of the present invention includes a communicator for acquiring real images generated by photographing an operation of a robot arm related to an object and time series operation information related to the operation of the robot arm; A force predicting unit that inputs the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object; And comparing the predicted interaction force of the robot arm and the physical force of the object using the sensor and the physical force of the object, and comparing the actual images with the time series motion information, the physical property value of the object, and And, it may include a correlation learning unit for learning the correlation between the interaction force of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치의 힘 예측부는, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측할 수 있다.The force predicting unit of the force learning device of the robot arm according to an embodiment of the present invention extracts a region related to the robot's motion from the real images using the CNN to which the real images are input, and the time series motion information of the robot Calculates the class scores of the time-series motion information of the robot using the first FC layer to which is input, and inputs the extracted area and the class scores of the time-series motion information to the RNN to change the area and the time series that change over time. The relationship between the motion information and the interaction force of the robot arm corresponding to the time series motion information and the actual image by calculating the class scores of the learning result to the second FC layer into which the learning result of the RNN is input is calculated. The physical properties of the object can be predicted.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치의 힘 예측부는, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측할 수 있다.The force predicting unit of the force learning device of the robot arm according to an embodiment of the present invention generates a virtual image representing a change in motion information over time based on the time series motion information in a graph form, thereby generating the first convolution of the CNN A virtual image output from the first convolutional layer and the second inputted to a solution layer, the real images accumulated over time are input to a second convolutional layer different from the first convolutional layer. The actual images output from the convolution layer are matched using the integrated layer, and the matched information is classified through the FC layer, and the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical properties of the object Predictable.

본 발명의 일실시예에 의하면, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다. According to an embodiment of the present invention, a correlation between a real image photographing a robot's motion and time series motion information, an object's physical properties, and an interaction force of a robot arm is learned, and a real image and a time series motion photographing the robot's motion By applying the information to the learning results, the interaction force of the robot arm can be predicted without a sensor for measuring the interaction force of the robot arm.

그리고, 본 발명의 일실시예에 의하면, 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.In addition, according to an embodiment of the present invention, by providing feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, the physical sense is reproduced to the user using only the camera without configuring a complex sensor network. I can do it.

또한, 본 발명의 일실시예에 의하면, 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, according to an embodiment of the present invention, since the interaction force of the robot arm can be predicted using the actual image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the actual image are used. By comparing the predicted interaction force of the robot arm, it is possible to determine whether the sensor is abnormal.

도 1은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치의 구조를 나타내는 도면이다.
도3은 본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치가 영상과 동작 정보 및 로봇 팔의 상호 작용 힘간의 상관 관계를 학습하는 과정의 일례이다.
도4는 본 발명의 일실시예에 따른 CNN 및 RNN을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.
도5는 본 발명의 일실시예에 따른 CNN 을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.
도 6은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치의 구조를 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 일례이다.
도 8은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 다른 일례이다.
도 9는 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법을 도시한 플로우차트이다.
도 10은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법을 도시한 플로우차트이다.
1 is a view showing an image-based force prediction system according to an embodiment of the present invention.
2 is a view showing the structure of a robotic force learning apparatus included in an image-based force prediction system according to an embodiment of the present invention.
3 is an example of a process in which a force learning device for a robot arm according to an embodiment of the present invention learns a correlation between an image, motion information, and interaction force of a robot arm.
4 is an example of a method for predicting an interaction force of a robot arm using CNN and RNN according to an embodiment of the present invention.
5 is an example of a method for predicting an interaction force of a robot arm using CNN according to an embodiment of the present invention.
6 is a view showing the structure of a robot arm force prediction device included in an image-based force prediction system according to an embodiment of the present invention.
7 is an example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.
8 is another example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.
9 is a flowchart illustrating a method for learning an interaction force of a robot arm according to an embodiment of the present invention.
10 is a flowchart illustrating a method for predicting an interaction force of a robot arm according to an embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments, and the scope of the patent application right is not limited or limited by these embodiments. It should be understood that all modifications, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described on the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the embodiments, detailed descriptions thereof will be omitted.

본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법은 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치에 의해 수행될 수 있다. 또한, 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법은 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치에 의해 수행될 수 있다. The method for learning the interaction force of the robot arm according to an embodiment of the present invention may be performed by the force learning device of the robot arm included in the image-based force prediction system. In addition, the method for predicting the interaction force of the robot arm according to an embodiment of the present invention may be performed by the force prediction device of the robot arm included in the image-based force prediction system.

도 1은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템을 나타내는 도면이다. 1 is a view showing an image-based force prediction system according to an embodiment of the present invention.

영상 기반 힘 예측 시스템은 도 1에 도시된 바와 같이 로봇 팔의 힘 학습 장치(110)와 데이터베이스(120) 및 로봇 팔의 힘 예측 장치(130)를 포함할 수 있다.The image-based force prediction system may include a force learning device 110 of the robot arm, a database 120, and a force prediction device 130 of the robot arm, as shown in FIG. 1.

로봇 팔의 힘 학습 장치(110)는 오브젝트와 관련된 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들과, 로봇 팔의 동작과 관련된 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 학습한 상관 관계를 데이터베이스(120)에 저장할 수 있다. 이때, 로봇 팔의 상호 작용 힘은 오브젝트를 잡는 로봇 팔의 그립력(Grip force), 오브젝트와 접촉하는 로봇 팔의 접촉력, 오브젝트를 당기는 로봇 팔의 힘(Pull force), 오브젝트를 미는 로봇 팔의 힘(Push force), 및 오브젝트를 잡거나 접촉한 로봇 팔의 힘의 방향 중 적어도 하나를 포함할 수 있다. The force learning device 110 of the robot arm between the actual images generated by continuously photographing the motion of the robot arm related to the object, time-series motion information related to the motion of the robot arm, the physical properties of the object, and the interaction force of the robot arm Can learn correlation. And, the robot arm force learning device 110 may store the learned correlation in the database 120. At this time, the interaction force of the robot arm is the grip force of the robot arm holding the object, the contact force of the robot arm contacting the object, the force of the robot arm pulling the object (Pull force), the force of the robot arm pushing the object ( Push force), and at least one of the direction of the force of the robot arm holding or touching the object.

이때, 오브젝트의 물성치는 오브젝트의 탄성, 강성, 밀도, 비중 중 적어도 하나를 포함할 수 있다. 또한, 시계열 동작 정보는 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 로봇 팔의 모터가 사용하는 전력의 변화, 로봇 팔의 위치 변화 및 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다. 또한, 시계열 동작 정보는 실제 영상들 각각에 대응하여 생성될 수 있다. 예를 들어, 0.1초 간격으로 실제 영상을 촬영하는 경우, 로봇 팔도 0.1 초 간격으로 해당 시점의 동작 정보를 생성할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 0.1초 간격으로 생성된 실제 영상의 프레임 각각에 대응하는 로봇 팔의 동작 정보를 매칭할 수 있다. At this time, the physical property value of the object may include at least one of elasticity, rigidity, density, and specific gravity of the object. In addition, the time series motion information may include at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. have. Also, time-series motion information may be generated corresponding to each of the actual images. For example, when a real image is taken at an interval of 0.1 second, the robot arm can also generate motion information at a corresponding time at an interval of 0.1 second. Then, the robot arm force learning device 110 may match the motion information of the robot arm corresponding to each frame of the actual image generated at 0.1 second intervals.

로봇 팔의 힘 학습 장치(110)가 상관 관계를 학습하기 위한 구체적인 구성 및 동작은 이하 도 2내지 도 5를 참조하여 상세히 설명한다.The specific configuration and operation for the robot arm force learning device 110 to learn the correlation will be described in detail with reference to FIGS. 2 to 5 below.

데이터베이스(120)는 로봇 팔의 힘 학습 장치(110)가 학습한 실제 영상들과, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 저장하고 관리할 수 있다.The database 120 may store and manage correlations between actual images learned by the robot arm force learning apparatus 110 and time series motion information, object properties, and robot arm interaction forces.

로봇 팔의 힘 예측 장치(130)는 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 로봇 팔의 동작과 관련된 시계열 동작 정보, 및 오브젝트의 물성치 중 적어도 하나를 데이터베이스(120)에서 로드한 상관 관계에 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.The robot arm force predicting device 130 records at least one of real images generated by photographing the motion of the robot arm related to the object, time series motion information related to the motion of the robot arm, and physical properties of the object in the database 120. It can be applied to the loaded correlation to predict the interaction force of the robot arm.

로봇 팔의 힘 예측 장치(130)가 로봇 팔의 상호 작용 힘을 예측하기 위한 구체적인 구성 및 동작은 이하 도 6 내지 도 8을 참조하여 상세히 설명한다.The specific configuration and operation for the robot arm force prediction device 130 to predict the interaction force of the robot arm will be described in detail with reference to FIGS. 6 to 8 below.

영상 기반 힘 예측 시스템은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘(Interaction force)을 예측할 수 있다. 그리고, 영상 기반 힘 예측 시스템은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.The image-based force prediction system learns the correlation between the real image of the robot's motion and the time series motion information, the object's physical properties, and the interaction force of the robot's arm, and learns the real image and the time-series motion information of the robot's motion. By applying to the results, it is possible to predict the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm. In addition, the image-based force prediction system provides feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, thereby reproducing the physical sense to the user using only the camera without configuring a complex sensor network. .

또한, 영상 기반 힘 예측 시스템은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, since the image-based force prediction system can predict the interaction force of the robot arm using the actual image, when an error occurs in the sensor, the robot predicted by using the interaction force of the robot arm measured by the sensor and the actual image It is possible to determine whether the sensor is abnormal by comparing the interaction forces of the arms.

그리고, 영상 기반 힘 예측 시스템은 고가이고 복잡한 센서 네트워크 없이 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서를 이용한 종래의 로봇 팔의 상호 작용 힘 측정 시스템에 비하여 저가로 구현할 수 있다. 따라서, 로봇 팔의 상호 작용 힘을 측정, 또는 예측하는 시스템의 보급이 증가되도록 할 수 있다.In addition, since the image-based force prediction system can predict the interaction force of the robot arm without an expensive and complex sensor network, it can be implemented at a lower cost than the conventional robot arm interaction force measurement system using a sensor. Therefore, it is possible to increase the prevalence of the system for measuring or predicting the interaction force of the robot arm.

도 2는 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치의 구조를 나타내는 도면이다. 2 is a view showing the structure of a robotic force learning apparatus included in an image-based force prediction system according to an embodiment of the present invention.

로봇 팔의 힘 학습 장치(110)는 도 1에 도시된 바와 같이 영상 획득부(210), 동작 정보 획득부(220), 힘 예측부(230), 상관 관계 학습부(240)를 포함할 수 있다. 이때, 힘 예측부(230), 상관 관계 학습부(240)는 서로 다른 프로세스, 또는 하나의 프로세스에 포함된 프로그램을 수행하기 위한 각각의 모듈일 수 있다.The force learning device 110 of the robot arm may include an image acquisition unit 210, a motion information acquisition unit 220, a force prediction unit 230, and a correlation learning unit 240 as illustrated in FIG. 1. have. In this case, the force prediction unit 230 and the correlation learning unit 240 may be respective modules for performing different processes or programs included in one process.

영상 획득부(210)는 학습용 로봇 팔(202)에 연동된 카메라(201)가 오브젝트와 관련된 로봇 팔(202)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 영상 획득부(210)는 카메라(201)로부터 무선으로 실제 영상을 수신하는 통신기, 또는 카메라(201)로부터 실제 영상을 수신하기 위한 유선이 결합되는 포트일 수 있다.The image acquisition unit 210 may acquire an actual image generated by the camera 201 linked to the learning robot arm 202 photographing the operation of the robot arm 202 associated with the object. At this time, the image acquiring unit 210 may be a communicator for receiving an actual image wirelessly from the camera 201, or a port through which a wire for receiving the actual image from the camera 201 is coupled.

동작 정보 획득부(220)는 로봇 팔(202)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(202)로부터 무선으로 동작 정보를 수신하는 통신기, 또는 로봇 팔(202)로부터 동작 정보를 수신하기 위한 유선이 결합되는 포트일 수 있다.The motion information acquiring unit 220 may acquire time-series motion information related to the motion of the robot arm 202. At this time, the operation information acquisition unit 220 may be a communicator for receiving operation information wirelessly from the robot arm 202, or a port through which a wire for receiving operation information from the robot arm 202 is coupled.

그리고, 도 2에서는 영상 획득부(210)와 동작 정보 획득부(220)가 별개의 구성으로 기재되어 있으나, 로봇 팔의 힘 학습 장치(110)가 하나의 통신기를 이용하여 실제 영상 획득 및 동작 정보 획득을 모두 수행할 수도 있다.In addition, in FIG. 2, although the image acquisition unit 210 and the operation information acquisition unit 220 are described in separate configurations, the force learning device 110 of the robot arm uses a single communicator to acquire actual image and operation information. It is also possible to perform all acquisitions.

힘 예측부(230)는 실제 영상들 및 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다. 이때, 힘 예측부(230)는 CNN(Convolutional Neural Network) 과 RNN(Recurrent Neural Network)을 이용하여 로봇 팔의 상호 작용 힘을 예측하거나, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. The force predicting unit 230 may input actual images and time series motion information into a deep learning algorithm to predict the interaction force of the robot arm and the physical properties of the object corresponding to the time series motion information and the real image. At this time, the force prediction unit 230 may predict the interaction force of the robot arm using the Convolutional Neural Network (CNN) and the Recurrent Neural Network (RNN), or the interaction force of the robot arm using only the CNN.

CNN 및 RNN을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 방법은 이하 도 4를 참조하여 상세히 설명한다. 또한, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 방법은 이하 도 5를 참조하여 상세히 설명한다.A method of predicting the interaction force of the robot arm using CNN and RNN will be described in detail with reference to FIG. 4 below. In addition, a method of predicting the interaction force of the robot arm using only CNN will be described in detail with reference to FIG. 5 below.

상관 관계 학습부(240)는 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 실제 영상들과 시계열 동작 정보, 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The correlation learning unit 240 compares the interaction force and the object physical properties of the robot arm measured using the sensor with the physical force of the object and the interaction force of the robot arm predicted by the force prediction unit 230 and compares the actual images. You can learn the correlation between time-series motion information, physical properties of an object, and interaction force of a robot arm.

구체적으로, 상관 관계 학습부(240)는 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치가 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 동일하거나, 오차 범위 이하의 차이가 있는 경우, 힘 예측부(230)가 입력한 실제 영상들과 시계열 동작 정보와 예측한 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계가 있는 것으로 학습할 수 있다. 또한, 상관 관계 학습부(240)는 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치가 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 오차 범위를 초과하는 차이가 있는 경우, 힘 예측부(230)가 입력한 실제 영상들과 시계열 동작 정보와 예측한 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계가 없다고 판단할 수 있다. 이때, 힘 예측부(230)는 실제 영상들과 시계열 동작 정보와 상관 관계가 있는 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘이 예측될 때까지 로봇 팔의 상호 작용 힘을 예측 하는 과정을 반복 수행할 수 있다.Specifically, in the correlation learning unit 240, the interaction force of the robot arm predicted by the force predicting unit 230 and the physical property value of the object are the same as the interaction force of the robot arm measured using a sensor and the physical property value of the object, , If there is a difference below the error range, it can be learned that there is a correlation between the actual images input by the force prediction unit 230 and time series motion information, the predicted object properties, and the interaction force of the robot arm. . In addition, the correlation learning unit 240 determines the interaction force of the robot arm predicted by the force predicting unit 230 and the physical force of the object and the error range of the interaction force of the robot arm measured using a sensor and the physical properties of the object. When there is an excess difference, it may be determined that there is no correlation between the actual images input by the force prediction unit 230 and time series motion information, the predicted object properties, and the interaction force of the robot arm. At this time, the force predicting unit 230 repeatedly performs a process of predicting the physical force of the object correlated with the actual images and time series motion information and the interaction force of the robot arm until the robot arm interaction force is predicted. can do.

도3은 본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치가 영상과 동작 정보 및 로봇 팔의 상호 작용 힘간의 상관 관계를 학습하는 과정의 일례이다.3 is an example of a process in which a force learning device for a robot arm according to an embodiment of the present invention learns a correlation between an image, motion information, and interaction force of a robot arm.

로봇 팔의 힘 학습 장치(110)와 연결된 로봇 팔(320), 또는 수술 로봇 집게(240)에는 로봇 팔의 상호 작용 힘을 측정하기 위한 센서가 포함될 수 있다. 예를 들어, 로봇 팔(320), 또는 수술 로봇 집게(340)는 힘(Force) 센서, 토크(Torque) 센서 및 압력 센서 중 적어도 하나를 포함할 수 있는 The robot arm 320 connected to the force learning device 110 of the robot arm, or the surgical robot forceps 240 may include a sensor for measuring the interaction force of the robot arm. For example, the robot arm 320, or the surgical robot forceps 340 may include at least one of a force sensor, a torque sensor, and a pressure sensor.

로봇 팔(320)에 대응하는 카메라(310)는 로봇 팔(320)의 동작을 일정 시간 간격으로 촬영한 실제 영상(311)들을 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 또한, 로봇 팔(320)는 실제 영상(311)의 프레임들 각각에 대응하는 시계열 동작 정보(321)를 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 이때, 로봇 팔(320)은 센서를 이용하여 측정한 로봇 팔의 상호 작용 힘을 시계열 동작 정보(321)와 함께 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다.The camera 310 corresponding to the robot arm 320 may transmit the actual images 311 photographing the operation of the robot arm 320 at regular time intervals to the force learning device 110 of the robot arm. In addition, the robot arm 320 may transmit time series motion information 321 corresponding to each of the frames of the actual image 311 to the force learning device 110 of the robot arm. At this time, the robot arm 320 may transmit the interaction force of the robot arm measured using a sensor to the force learning device 110 of the robot arm along with the time series motion information 321.

그리고, 로봇 팔의 힘 학습 장치(110)는 실제 영상(311)과 시계열 동작 정보(321)를 이용하여 로봇 팔(320)와 접촉하거나, 로봇 팔(320)이 잡고 있는 로봇 팔의 상호 작용 힘을 예측할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)는 실제 영상(311)을 이용하여 오브젝트의 위치 및 위치에 따른 오브젝트의 물성치를 예측할 수도 있다. 다음으로, 로봇 팔의 힘 학습 장치(110)는 예측한 로봇 팔의 상호 작용 힘을 로봇 팔(320)로부터 수신한 로봇 팔의 상호 작용 힘과 비교하여 실제 영상(311)들과 시계열 동작 정보(321), 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.Then, the robot arm force learning device 110 contacts the robot arm 320 using the actual image 311 and time series motion information 321, or the interaction force of the robot arm held by the robot arm 320. Can predict. In addition, the force learning device 110 of the robot arm may predict the physical properties of the object according to the position and location of the object using the actual image 311. Next, the force learning device 110 of the robot arm compares the predicted interaction force of the robot arm with the interaction force of the robot arm received from the robot arm 320, and displays the actual images 311 and time series motion information ( 321), the correlation between the physical properties of the object and the interaction force of the robot arm can be learned.

또한, 수술 로봇 집게(340)에 대응하는 카메라(330)는 수술 로봇 집게(340)의 동작을 일정 시간 간격으로 촬영한 실제 영상(331)들을 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 또한, 수술 로봇 집게(340)는 실제 영상(313)의 프레임들 각각에 대응하는 시계열 동작 정보(341)를 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 이때, 수술 로봇 집게(340)는 센서를 이용하여 수술 로봇 집게(340)로 잡고 있는 오브젝트와 접촉한 다른 로봇 팔의 상호 작용 힘을 측정할 수 있다. 그리고, 수술 로봇 집게(340)는 측정한 로봇 팔의 상호 작용 힘을 시계열 동작 정보(341)와 함께 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다.In addition, the camera 330 corresponding to the surgical robot forceps 340 may transmit the actual images 331 of the operation of the surgical robot forceps 340 at regular time intervals to the force learning device 110 of the robot arm. . In addition, the surgical robot forceps 340 may transmit time-series motion information 341 corresponding to each of the frames of the actual image 313 to the force learning device 110 of the robot arm. At this time, the surgical robot forceps 340 may measure the interaction force of another robot arm contacting the object held by the surgical robot forceps 340 using a sensor. Then, the surgical robot forceps 340 may transmit the measured interaction force of the robot arm to the force learning device 110 of the robot arm along with the time series motion information 341.

그리고, 로봇 팔의 힘 학습 장치(110)는 실제 영상(331)과 시계열 동작 정보(341)를 이용하여 수술 로봇 집게(340)로 잡고 있는 오브젝트와 접촉한 다른 오브젝트의 물성치 및 다른 로봇 팔의 상호 작용 힘을 예측할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)는 실제 영상(331)을 이용하여 다른 오브젝트의 위치 및 위치에 따른 다른 오브젝트의 물성치를 예측할 수도 있다. 다음으로, 로봇 팔의 힘 학습 장치(110)는 예측한 로봇 팔의 상호 작용 힘을 수술 로봇 집게(340)로부터 수신한 로봇 팔의 상호 작용 힘과 비교하여 실제 영상(331)들과 시계열 동작 정보(321), 다른 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In addition, the force learning device 110 of the robot arm uses the physical image 331 and the time series motion information 341 to interact with the physical properties of other objects in contact with the object held by the surgical robot forceps 340 and the interaction between the other robot arms. The force of action can be predicted. In addition, the force learning device 110 of the robot arm may predict physical properties of other objects according to positions and positions of other objects using the actual image 331. Next, the force learning device 110 of the robot arm compares the predicted interaction force of the robot arm with the interaction force of the robot arm received from the surgical robot forceps 340 and displays actual images 331 and time series motion information. (321), it is possible to learn the correlation between the physical properties of other objects and the interaction force of the robot arm.

이때, 카메라(310)와 카메라(330)의 촬영 간격이 0.1초인 경우, 로봇 팔(320), 및 수술 로봇 집게(340)도 각각 0.1 초 간격으로 해당 시점의 동작 정보를 생성하여 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 0.1초 간격으로 생성된 실제 영상들 각각에 대응하는 로봇 팔의 동작 정보를 매칭할 수 있다.At this time, when the shooting interval between the camera 310 and the camera 330 is 0.1 seconds, the robot arm 320 and the surgical robot forceps 340 also generate motion information at a corresponding time at 0.1 second intervals, respectively, to generate the force of the robot arm. It can be transmitted to the learning device 110. In addition, the robot arm force learning apparatus 110 may match the motion information of the robot arm corresponding to each of the actual images generated at 0.1 second intervals.

도4는 본 발명의 일실시예에 따른 CNN 및 RNN을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.4 is an example of a method for predicting an interaction force of a robot arm using CNN and RNN according to an embodiment of the present invention.

먼저, 힘 예측부(230)는 카메라 1, 카메라 2와 같은 적어도 하나의 카메라들 각각으로부터 획득한 실제 영상들이 입력되는 CNN(411)를 이용하여 실제 영상들에서 로봇의 동작과 관련된 영역을 추출할 수 있다. 예를 들어, 힘 예측부(230)는 로봇 팔을 촬영하여 생성된 실제 영상에서 로봇 팔 및 오브젝트가 포함된 영역을 로봇의 동작과 관련된 영역으로 추출함으로써, RNN(420)에서 처리할 영상과 관련된 정보의 크기를 최소화할 수 있다.First, the force predicting unit 230 extracts a region related to the motion of the robot from the actual images by using the CNN 411 into which the actual images obtained from each of at least one camera, such as camera 1 and camera 2, are input. You can. For example, the force predicting unit 230 extracts an area including the robot arm and the object from the actual image generated by photographing the robot arm as an area related to the robot's motion, thereby relating to an image to be processed by the RNN 420. The size of the information can be minimized.

그리고, 하나의 로봇 팔을 2개의 카메라로 촬영한 경우, 힘 예측부(230)는 도 4에 도시된 바와 같이 카메라들 각각에 대응하는 CNN(411)에서 추출한 로봇의 동작과 관련된 영역을 제4 FC 계층(412)에서 통합하여 RNN(420)로 전달할 수 있다. 이때, 제4 FC 계층(412)은 서로 다른 영상에서 각각 추출한 로봇의 동작과 관련된 영역을 매칭하여 출력할 수 있다.In addition, when one robot arm is photographed with two cameras, the force predicting unit 230 displays a region related to the motion of the robot extracted from the CNN 411 corresponding to each of the cameras as shown in FIG. 4. It can be integrated in the FC layer 412 and delivered to the RNN 420. In this case, the fourth FC layer 412 may match and output regions related to the operation of the robot extracted from different images.

또한, 힘 예측부(230)는 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층(413)으로 로봇의 시계열 동작 정보를 처리하여 RNN(420)으로 전달할 수 있다. 이때, 제1 FC 계층(413)은 도 4에 도시된 바와 같이 복수의 FC 계층들로 구성될 수 있다. 그리고, 제1 FC 계층(413)은 로봇의 시계열 동작 정보를 계산하여 출력할 수 있다.In addition, the force predicting unit 230 may process the time-series motion information of the robot to the first fully-connected (FC) layer 413 into which the time-series motion information of the robot is input, and transmit it to the RNN 420. At this time, the first FC layer 413 may be composed of a plurality of FC layers as shown in FIG. 4. In addition, the first FC layer 413 may calculate and output time-series motion information of the robot.

그리고, 힘 예측부(230)는 실제 영상 별로, CNN(411)과 제1 FC 계층(413)으로 구성된 입력망을 생성할 수 있다. 예를 들어, 실제 영상이 N개인 경우, 힘 예측부(230)는 도 4에 도시된 바와 같이 입력망 1(410) 내지 입력망 N을 생성할 수 있다. 이때, 입력망 2 내지 입력망 N은 입력되는 실제 영상 및 실제 영상에 대응하는 동작 정보만 사이가 있고, 실제 영상 및 동작 정보를 처리하기 위한 구조는 입력망 1(410)의 CNN(411) 및 제1 FC 계층(413)과 동일할 수 있다.In addition, the force prediction unit 230 may generate an input network composed of the CNN 411 and the first FC layer 413 for each real image. For example, when there are N actual images, the force prediction unit 230 may generate the input networks 1 410 to N as shown in FIG. 4. At this time, the input network 2 to the input network N are only between the input real image and the motion information corresponding to the real image, and the structure for processing the real image and the motion information includes CNN 411 of the input network 1 410 and It may be the same as the first FC layer 413.

다음으로, 힘 예측부(230)는 RNN(420)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수 있다. 예를 들어, RNN(420)는 도 4에 도시된 바와 같이 시간의 경과에 따른 복수의 입력망들로부터 각각 출력된 로봇의 동작과 관련된 영역 및 처리된 시계열 동작 정보를 복수의 계층으로 구성된 LSTM(long short term memory networks)에 입력하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수 있다. 도 4에서는 LSTM를 사용하고 있으나, 힘 예측부(230)는 LSTM이외에도 RNN에 해당하는 다른 네트워크를 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수도 있다. Next, the force predicting unit 230 may use the RNN 420 to learn the relationship between the region that changes over time and time series motion information. For example, as shown in FIG. 4, the RNN 420 includes an area related to the motion of a robot output from a plurality of input networks over time, and processed time series motion information composed of multiple layers of LSTM ( long short term memory networks) to learn the relationship between time-varying motion information and areas that change over time. Although the LSTM is used in FIG. 4, the force predicting unit 230 may also learn the relationship between the time-varying motion information and a region that changes over time by using another network corresponding to the RNN in addition to the LSTM.

마지막으로 힘 예측부(230)는 RNN의 학습 결과가 입력되는 제2 FC 계층(430)으로 학습 결과를 처리하여 시계열 동작 정보와 실제 영상에 대응하는 로봇 팔의 상호 작용 힘(Task1) 및 오브젝트의 물성치 (Task2)를 예측할 수 있다. 이때, 제2 FC 계층(430)은 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계들 각각의 클래스 점수들을 계산할 수 있다.Lastly, the force predicting unit 230 processes the learning result with the second FC layer 430 into which the learning result of the RNN is input, and the interaction force (Task1) and the object of the robot arm corresponding to the time series motion information and the actual image. The property value (Task2) can be predicted. At this time, the second FC layer 430 may calculate the class scores of each of the relationships between the region and the time-series operation information that change over time.

도5는 본 발명의 일실시예에 따른 CNN 을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.5 is an example of a method for predicting an interaction force of a robot arm using CNN according to an embodiment of the present invention.

먼저, 힘 예측부(230)는 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상(521)을 생성하여 CNN의 제1 콘볼루션 계층(520)에 입력할 수 있다. 예를 들어, 가상 영상(521)은 벡터화된 시계열 동작 정보(522,523)들 간의 공 분산 행렬(Covariance Matrix)을 영상으로 변환하여 생성될 수 있다. 이때, 제1 콘볼루션 계층(520)은 가상 영상(521)를 이용하여 시계열 동작 정보들 간의 상관 관계(Correlation) 을 분석할 수 있다. First, the force prediction unit 230 generates a virtual image 521 representing a change in motion information over time based on time series motion information in a graph form and inputs it to the first convolutional layer 520 of the CNN. You can. For example, the virtual image 521 may be generated by converting a covariance matrix between vectorized time series motion information 522 and 523 into an image. In this case, the first convolution layer 520 may analyze the correlation between time-series operation information using the virtual image 521.

다음으로, 힘 예측부(230)는 시간의 경과에 따라 누적된 실제 영상(511)들을 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층(510)에 입력할 수 있다. Next, the force prediction unit 230 may input the actual images 511 accumulated over time into a second convolutional layer 510 different from the first convolutional layer.

그 다음으로, 힘 예측부(230)는 제1 콘볼루션 계층(520)에서 출력된 가상 영상과 제2 콘볼루션 계층(510)에서 출력된 실제 영상들을 통합 계층(pooling layer)(530)을 이용하여 정합할 수 있다. Next, the force prediction unit 230 uses a pooling layer 530 of the virtual images output from the first convolution layer 520 and the actual images output from the second convolution layer 510. Can be matched.

마지막으로, 힘 예측부(230)는 정합된 정보들을 FC 계층(fully connected layer)(540)을 통해 분류하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다.Lastly, the force prediction unit 230 classifies the matched information through the fully connected layer (FC layer) 540 to predict the interaction force of the robot arm and the physical properties of the object corresponding to the time series motion information and the actual image. have.

도 6은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치의 구조를 나타내는 도면이다. 6 is a view showing the structure of a robot arm force prediction device included in an image-based force prediction system according to an embodiment of the present invention.

로봇 팔의 힘 예측 장치(130)는 도 6에 도시된 바와 같이 영상 획득부(610), 동작 정보 획득부(620), 힘 예측부(630), 햅틱 센싱 정보 예측부(640), 및 피드백부(640)를 포함할 수 있다. 이때, 힘 예측부(630), 햅틱 센싱 정보 예측부(640)는 서로 다른 프로세스, 또는 하나의 프로세스에 포함된 프로그램을 수행하기 위한 각각의 모듈일 수 있다.As shown in FIG. 6, the force prediction device 130 of the robot arm includes an image acquisition unit 610, a motion information acquisition unit 620, a force prediction unit 630, a haptic sensing information prediction unit 640, and feedback It may include a portion 640. In this case, the force prediction unit 630 and the haptic sensing information prediction unit 640 may be respective modules for performing different processes or programs included in one process.

영상 획득부(610)는 힘을 예측할 로봇 팔(602)에 연동된 카메라(601)가 오브젝트와 관련된 로봇 팔(602)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 영상 획득부(610)는 카메라(601)로부터 무선으로 실제 영상을 수신하는 통신기, 또는 카메라(601)로부터 실제 영상을 수신하기 위한 유선이 결합되는 포트일 수 있다. 이때, 실제 영상에는 로봇 팔(602)의 동작에 의하여 변형된 오브젝트가 포함될 수 있다. 구체적으로, 연속된 실제 영상에는 로봇 팔(602)의 동작에 의하여 오브젝트가 변형되어 가는 과정에 포함될 수 있다.The image acquisition unit 610 may acquire an actual image generated by the camera 601 linked to the robot arm 602 to predict the force by photographing the operation of the robot arm 602 associated with the object. In this case, the image acquiring unit 610 may be a communicator for receiving an actual image wirelessly from the camera 601, or a port through which a wire for receiving the actual image from the camera 601 is coupled. At this time, the actual image may include an object deformed by the operation of the robot arm 602. Specifically, the continuous real image may be included in a process in which an object is deformed by the operation of the robot arm 602.

동작 정보 획득부(620)는 로봇 팔(602)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 이때, 동작 정보 획득부(620)는 로봇 팔(602)로부터 무선으로 동작 정보를 수신하는 통신기, 또는 로봇 팔(602)로부터 동작 정보를 수신하기 위한 유선이 결합되는 포트일 수 있다.The motion information acquisition unit 620 may acquire time series motion information related to the motion of the robot arm 602. At this time, the operation information acquisition unit 620 may be a communicator that receives operation information wirelessly from the robot arm 602 or a port through which a wire for receiving operation information from the robot arm 602 is coupled.

그리고, 도 6에서는 영상 획득부(610)와 동작 정보 획득부(620)가 별개의 구성으로 기재되어 있으나, 로봇 팔의 힘 예측 장치(130)가 하나의 통신기를 이용하여 실제 영상 획득 및 동작 정보 획득을 모두 수행할 수도 있다.In addition, although the image acquisition unit 610 and the operation information acquisition unit 620 are described in FIG. 6 as separate configurations, the force prediction device 130 of the robot arm uses a single communicator to acquire actual image and operation information. It is also possible to perform all acquisitions.

힘 예측부(630)는 실제 영상들과 시계열 동작 정보에 기초하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. 이때, 힘 예측부(630)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들, 시계열 동작 정보 및 오브젝트의 물성치를 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.The force predicting unit 630 may predict the interaction force of the robot arm based on real images and time series motion information. At this time, the force prediction unit 630 of the actual images, the time series motion information, the physical properties of the object and the learning result of the correlation between the interaction force of the robot arm is stored in the database 120 of the actual images, time series motion information and objects The interaction force of the robot arm can be predicted by applying material properties.

햅틱 센싱 정보 예측부(640)는 오브젝트의 물성치(material property)와 예측한 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측할 수 있다.The haptic sensing information prediction unit 640 may predict haptic sensing information using the material property of the object and the predicted interaction force of the robot arm.

피드백부(640)는 예측된 햅틱 센싱 정보에 따라 로봇 팔 제어기(603)에 피드백 신호를 전송하여 로봇 팔의 사용자에게 피드백을 제공할 수 있다. 이때, 피드백부(640)는 로봇 팔 제어기(603)에 무선으로 피드백 신호를 전송하는 통신기, 또는 로봇 팔 제어기(603)에 피드백 신호를 전송하기 위한 유선이 결합되는 포트일 수 있다.The feedback unit 640 may transmit a feedback signal to the robot arm controller 603 according to the predicted haptic sensing information to provide feedback to the user of the robot arm. At this time, the feedback unit 640 may be a communicator that transmits a feedback signal to the robot arm controller 603 wirelessly, or a port to which a wire for transmitting a feedback signal to the robot arm controller 603 is coupled.

로봇 팔의 힘 예측 장치(130)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들과 시계열 동작 정보 및 오브젝트의 물성치를 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다The robot arm force prediction apparatus 130 stores actual images, time series motion information, and objects in a database 120 in which learning results of correlations between real images, time series motion information, object properties, and robot arm interaction forces are stored. By applying the material properties of the robot arm, the interaction force of the robot arm can be predicted without a sensor for measuring the interaction force of the robot arm.

도 7은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 일례이다. 7 is an example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.

로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)에 연동된 카메라로부터 로봇 팔(602)의 동작을 촬영하여 생성된 실제 영상들(710)을 획득할 수 있다. 이때, 연속된 실제 영상들(710)은 도 7에 도시된 바와 같이 로봇 팔(602)이 오브젝트와 접촉하는 영상(711)부터 로봇 팔(602)이 접촉한 오브젝트를 잡는 영상(714)와 같이 로봇 팔(602)이 오브젝트와 상호 작용하는 과정을 순차적으로 촬영한 영상일 수 있다. 또한, 로봇 팔(602)는 로봇 팔 제어기(603)가 로봇 팔(602)에 전송한 제어 신호(706)에 따라 동작할 수 있다.The force predicting device 130 for the robot arm may acquire actual images 710 generated by photographing the operation of the robot arm 602 from a camera linked to the robot arm 602. At this time, the continuous real images 710 are as shown in FIG. 7, from the image 711 where the robot arm 602 contacts the object to the image 714 that catches the object that the robot arm 602 contacts. The robot arm 602 may be an image sequentially photographing a process of interacting with an object. Also, the robot arm 602 may operate according to a control signal 706 transmitted from the robot arm controller 603 to the robot arm 602.

그리고, 로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)로부터 로봇 팔(602)의 동작과 관련된 시계열 동작 정보(720)를 획득할 수 있다.Then, the robot arm force prediction device 130 may obtain time-series motion information 720 related to the motion of the robot arm 602 from the robot arm 602.

다음으로, 로봇 팔의 힘 예측 장치(130)는CNN과 FC 계층(701)을 이용하여 실제 영상들(710)과 시계열 동작 정보(720)를 전처리 할 수 있다. 이때, 로봇 팔의 힘 예측 장치(130)는CNN을 이용하여 실제 영상들(710)에서 로봇의 동작과 관련된 영역을 추출하여 RNN(702)로 전달할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)는 FC계층으로 로봇의 시계열 동작 정보를 처리하여 RNN(702)로 전달할 수 있다. Next, the robot arm force prediction device 130 may preprocess the actual images 710 and the time series motion information 720 using the CNN and the FC layer 701. In this case, the robot arm force prediction apparatus 130 may extract a region related to the robot's motion from the actual images 710 using the CNN and transmit the extracted region to the RNN 702. In addition, the robot arm force prediction device 130 may process the time series motion information of the robot to the FC layer and transmit it to the RNN 702.

그 다음으로, 로봇 팔의 힘 예측 장치(130)는 RNN(702)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 확인할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 데이터베이스(120)에서 확인한 영역과 시계열 동작 정보들 간의 관계에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 검색할 수 있다.Next, the robot arm force prediction device 130 may use the RNN 702 to check the relationship between the region that changes over time and time-series motion information. In addition, the robot arm force prediction apparatus 130 may search the interaction force of the robot arm and the physical properties of the object corresponding to the relationship between the region identified in the database 120 and time-series motion information.

다음으로, 로봇 팔의 힘 예측 장치(130)는 검색한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 힘 예측 결과(703)로 출력할 수 있다.Next, the robot arm force prediction apparatus 130 may output the retrieved interaction force of the robot arm and the physical properties of the object as a force prediction result 703.

또한, 로봇 팔의 힘 예측 장치(130)는 힘 예측 결과(703)에 따라 사용자에게 피드백할 햅틱 센싱 정보를 예측할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 햅틱 센싱 정보가 포함된 피드백 신호(730)를 로봇 팔 제어기(603)로 전송할 수 있다. 이때, 로봇 팔 제어기(603)는 수신한 피드백 신호(730)에 따라 로봇 팔(602)를 제어하는 사용자에게 피드백을 제공할 수 있다.In addition, the robot arm force prediction apparatus 130 may predict haptic sensing information to be fed back to the user according to the force prediction result 703. Then, the robot arm force prediction apparatus 130 may transmit a feedback signal 730 including haptic sensing information to the robot arm controller 603. At this time, the robot arm controller 603 may provide feedback to the user who controls the robot arm 602 according to the received feedback signal 730.

도 8은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 다른 일례이다. 8 is another example of a process for predicting an interaction force of a robot arm according to an embodiment of the present invention.

도 8은 로봇 팔(602)이 수술용 로봇 팔과 같이 파손 가능한 오브젝트(수술 도구, 환자의 장기)와 상호 작용하는 경우, 로봇 팔의 힘 예측 장치(130)가 오브젝트의 파손 위험을 경고하는 실시예이다.FIG. 8 shows that when the robot arm 602 interacts with a breakable object (surgical tool, patient's organ), such as a surgical robot arm, the robot arm force predicting device 130 warns the risk of object damage. Yes.

로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)에 연동된 카메라로부터 로봇 팔(602)의 동작을 촬영하여 생성된 실제 영상들(810)을 획득할 수 있다. 이때, 실제 영상들(810)은 로봇 팔(602)의 동작에 의하여 오브젝트가 변형되어 가는 과정의 첫 번째 영상(811) 내지 현재 영상(814)을 포함할 수 있다. 또한, 로봇 팔(602)는 로봇 팔 제어기(603)가 로봇 팔(602)에 전송한 제어 신호(800)에 따라 동작할 수 있다.The apparatus for predicting the force of the robot arm 130 may acquire actual images 810 generated by photographing an operation of the robot arm 602 from a camera linked to the robot arm 602. At this time, the actual images 810 may include the first image 811 to the current image 814 in the process of the object being deformed by the operation of the robot arm 602. Also, the robot arm 602 may operate according to the control signal 800 transmitted from the robot arm controller 603 to the robot arm 602.

그리고, 로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)로부터 로봇 팔(602)의 동작과 관련된 시계열 동작 정보(820)를 획득할 수 있다.Then, the robot arm force prediction device 130 may obtain time-series motion information 820 related to the motion of the robot arm 602 from the robot arm 602.

다음으로, 로봇 팔의 힘 예측 장치(130)는CNN과 FC 계층(801)을 이용하여 실제 영상들(810)과 시계열 동작 정보(820)를 전처리 할 수 있다. 이때, 로봇 팔의 힘 예측 장치(130)는CNN을 이용하여 실제 영상들(810)에서 로봇의 동작과 관련된 영역을 추출하여 RNN(802)로 전달할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)는 FC계층으로 로봇의 시계열 동작 정보를 처리하여 RNN(802)로 전달할 수 있다. Next, the robot arm force prediction device 130 may preprocess the actual images 810 and the time series motion information 820 using the CNN and the FC layer 801. At this time, the robot arm force prediction device 130 may extract an area related to the robot's motion from the actual images 810 using the CNN and transmit it to the RNN 802. In addition, the robot arm force prediction device 130 may process the time series motion information of the robot to the FC layer and transmit it to the RNN 802.

그 다음으로, 로봇 팔의 힘 예측 장치(130)는 RNN(802)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 확인할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 데이터베이스(120)에서 확인한 영역과 시계열 동작 정보들 간의 관계에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 검색할 수 있다. 다음으로, 로봇 팔의 힘 예측 장치(130)는 검색한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 힘 예측 결과(803)로 출력할 수 있다.Next, the robot arm force prediction device 130 may use the RNN 802 to check the relationship between the region that changes over time and time series motion information. In addition, the robot arm force prediction apparatus 130 may search the interaction force of the robot arm and the physical properties of the object corresponding to the relationship between the region identified in the database 120 and time-series motion information. Next, the robot arm force prediction apparatus 130 may output the retrieved interaction force of the robot arm and the physical properties of the object as a force prediction result 803.

이때, 로봇 팔의 힘 예측 장치(130)는 힘 예측 결과(803)에 포함된 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 오브젝트의 파손 가능성을 판단할 수 있다. 그리고, 오브젝트의 파손 가능성이 임계값 이상인 경우, 로봇 팔의 힘 예측 장치(130)는 오브젝트가 파손될 가능성을 경고하는 신호(840)를 로봇 팔 제어기(603)로 전송할 수 있다. 이때, 로봇 팔 제어기(603)는 수신한 신호(840)에 따라 경고음, 또는 경고 램프를 동작하거나, 오브젝트가 파손되는 방향으로의 제어 신호(800)를 로봇 팔(602)로 전송하지 않도록 설정할 수 있다.At this time, the force predicting device 130 of the robot arm may determine the possibility of damage to the object by comparing the interaction force of the robot arm included in the force prediction result 803 and the physical properties of the object. In addition, when the probability of damage to the object is greater than or equal to a threshold, the force predicting device 130 of the robot arm may transmit a signal 840 warning the possibility of the object to be broken to the robot arm controller 603. At this time, the robot arm controller 603 may be set to operate the warning sound or warning lamp according to the received signal 840 or not to transmit the control signal 800 in the direction in which the object is damaged to the robot arm 602. have.

도 9는 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법을 도시한 플로우차트이다.9 is a flowchart illustrating a method for learning an interaction force of a robot arm according to an embodiment of the present invention.

단계(910)에서 영상 획득부(210)는 학습용 로봇 팔(202)에 연동된 카메라(201)가 오브젝트와 관련된 로봇 팔(202)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(202)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)가 하나의 통신기를 이용하여 실제 영상 및 시계열 동작 정보를 모두 획득할 수도 있다.In operation 910, the image acquisition unit 210 may acquire an actual image generated by photographing an operation of the robot arm 202 associated with the object by the camera 201 linked to the learning robot arm 202. At this time, the motion information acquisition unit 220 may acquire time-series motion information related to the motion of the robot arm 202. In addition, the force learning device 110 of the robot arm may acquire both real image and time series motion information using a single communicator.

단계(920)에서 힘 예측부(230)는 실제 영상들 및 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다. 이때, 힘 예측부(230)는 CNN 과 RNN을 이용하여 로봇 팔의 상호 작용 힘을 예측하거나, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. In operation 920, the force predicting unit 230 may input actual images and time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object. In this case, the force predicting unit 230 may predict the interaction force of the robot arm using CNN and RNN, or the interaction force of the robot arm using only CNN.

단계(930)에서 상관 관계 학습부(240)는 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 실제 영상들과 시계열 동작 정보, 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In step 930, the correlation learning unit 240 measures the interaction force and object physical properties of the robot arm measured using the sensor, and the force predictor 230 predicts the interaction force of the robot arm and the physical property value of the object. By comparison, it is possible to learn a correlation between real images and time series motion information, physical properties of an object, and interaction force of a robot arm.

도 10은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법을 도시한 플로우차트이다.10 is a flowchart illustrating a method for predicting an interaction force of a robot arm according to an embodiment of the present invention.

단계(1010)에서 영상 획득부(610)는 힘을 예측할 로봇 팔(602)에 연동된 카메라(601)가 오브젝트와 관련된 로봇 팔(602)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 동작 정보 획득부(620)는 로봇 팔(602)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)가 하나의 통신기를 이용하여 실제 영상 및 시계열 동작 정보를 모두 획득할 수도 있다.In step 1010, the image acquisition unit 610 may acquire an actual image generated by photographing the operation of the robot arm 602 associated with the object by the camera 601 linked to the robot arm 602 to predict the force. . At this time, the motion information acquisition unit 620 may acquire time-series motion information related to the motion of the robot arm 602. Also, the force predicting device 130 of the robot arm may acquire both real image and time series motion information using a single communicator.

단계(1020)에서 힘 예측부(630)는 실제 영상들과 시계열 동작 정보에 기초하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. 이때, 힘 예측부(630)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들, 시계열 동작 정보 및 오브젝트의 물성치를 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.In step 1020, the force prediction unit 630 may predict the interaction force of the robot arm based on the actual images and time series motion information. At this time, the force predicting unit 630 of the actual images, time series motion information, the physical properties of the object and the learning result of the correlation between the interaction force of the robot arm is stored in the database 120 of the actual images, time series motion information and objects The interaction force of the robot arm can be predicted by applying material properties.

단계(1030)에서 햅틱 센싱 정보 예측부(640)는 오브젝트의 물성치와 단계(1020)에서 예측한 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측할 수 있다.In step 1030, the haptic sensing information prediction unit 640 may predict the haptic sensing information using the physical properties of the object and the interaction force of the robot arm predicted in step 1020.

단계(1040)에서 피드백부(640)는 단계(1030)에서 예측된 햅틱 센싱 정보에 따라 로봇 팔 제어기(603)에 피드백 신호를 전송하여 로봇 팔의 사용자에게 피드백을 제공할 수 있다. In step 1040, the feedback unit 640 may transmit a feedback signal to the robot arm controller 603 according to the haptic sensing information predicted in step 1030 to provide feedback to the user of the robot arm.

본 발명은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다. The present invention learns the correlation between the real image of the robot's motion and time series motion information, the object's physical properties and the interaction force of the robot's arm, and applies the real image and the time series motion information of the robot's motion to the learning results. By doing so, it is possible to predict the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm.

그리고, 본 발명은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.In addition, the present invention provides feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, thereby reproducing the physical sense to the user using only the camera without configuring a complex sensor network.

또한, 본 발명은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, since the present invention can predict the interaction force of the robot arm using the actual image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the robot arm predicted using the actual image By comparing the operating force, it is possible to determine whether the sensor is abnormal.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited drawing, a person skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

110: 로봇 팔의 힘 학습 장치
120: 데이터베이스
130: 로봇 팔의 힘 예측 장치
110: robot arm force learning device
120: database
130: robot arm force prediction device

Claims (20)

시간의 경과에 따른 오브젝트들 간의 상호 작용을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계;
시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 시계열 동작 정보를 획득하는 단계; 및
상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 단계
를 포함하고,
상기 예측하는 단계는,
상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트들의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 방법.
Obtaining real images generated by continuously photographing interactions between objects over time;
Obtaining time-series motion information of a robot arm related to a change in position of the objects or deformation of the objects over time; And
Predicting an interaction force between the objects based on a change in the position of the objects or a deformation of the objects included in the real image.
Including,
The predicting step,
The actual images, the time series motion information, the physical properties of the objects and the learning result of the correlation between the interaction force of the robot arm are stored in the database, and the physical images, the time series motion information, and the physical properties of the object are applied to the database. Interactive force prediction method for predicting the interaction force of a robot arm.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 상관 관계는,
상기 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습되는 상호 작용 힘 예측 방법.
According to claim 1,
The correlation is
The time series motion information and the actual images are input to a deep learning algorithm of a neural network structure, and the predicted interaction force of the robot arm and the physical force value of the object and the physical force value of the robot arm measured using the sensor and the physical property value of the object A method of predicting interaction forces that is learned by comparison.
제5항에 있어서,
상기 딥러닝 알고리즘은,
상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정;
상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정;
추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및
상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정
을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법.
The method of claim 5,
The deep learning algorithm,
Extracting a region related to the motion of the robot from the real images by using a convolutional neural network (CNN) to which the real images are input;
Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input;
Learning the relationship between the region and the time-series operation information that changes over time by inputting the extracted region and the class scores of the time-series operation information into a recurrent neural network (RNN); And
The process of predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object by calculating class scores of the learning result to the second FC layer where the learning result of the RNN is input.
An interactive force prediction method for learning a correlation between the actual images and time series motion information of the robot and the interaction force of the robot arm by performing.
제5항에 있어서,
상기 딥러닝 알고리즘은,
상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정;
시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정;
상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및
정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정
을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법.
The method of claim 5,
The deep learning algorithm,
Generating a virtual image representing a change of motion information over time based on the time-series motion information in a graph form and inputting it to a first convolutional layer of a convolutional neural network (CNN);
Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer;
Matching a virtual image output from the first convolutional layer and a real image output from the second convolutional layer using a pooling layer; And
The process of predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object by classifying the matched information through a fully connected layer
An interactive force prediction method for learning a correlation between the actual images and time series motion information of the robot and the interaction force of the robot arm by performing.
제1항에 있어서,
상기 시계열 동작 정보는,
시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 방법.
According to claim 1,
The time series operation information,
Interaction force prediction including at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. Way.
제1항에 있어서,
상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및
상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함하는 상호 작용 힘 예측 방법.
According to claim 1,
Predicting haptic sensing information using a material property of the object and a predicted interaction force of the robot arm; And
And providing feedback to the user of the robot arm according to the haptic sensing information.
오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 단계;
상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계;
예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계; 및
상기 상관 관계를 데이터베이스에 저장하는 단계
를 포함하는 로봇 팔의 힘 학습 방법.
Obtaining real images generated by photographing the motion of the robot arm associated with the object and time series motion information related to the motion of the robot arm;
Predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and physical properties of the object by inputting the real images and the time series motion information into a deep learning algorithm;
Comparing the predicted interaction force of the robot arm and the physical force of the object with the sensor's interaction force and the physical force of the object, the actual images and the time series motion information, the physical property value of the object, and Learning a correlation between the interaction forces of the robot arm; And
Storing the correlation in a database
Robot arm force learning method comprising a.
제10항에 있어서,
상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,
상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계;
상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계;
추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및
상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계
를 포함하는 로봇 팔의 힘 학습 방법.
The method of claim 10,
The step of predicting the interaction force of the robot arm,
Extracting a region related to the motion of the robot from the real images using a CNN to which the real images are input;
Calculating class scores of the time-series motion information of the robot using a first fully-connected (FC) layer into which the time-series motion information of the robot is input;
Learning the relationship between the region changing over time and the time series operation information by inputting the extracted region and the class scores of the time series operation information to the RNN; And
Predicting the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property value of the object by calculating class scores of the learning result to the second FC layer into which the learning result of the RNN is input.
Robot arm force learning method comprising a.
제10항에 있어서,
상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,
상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계;
시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계;
상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및
정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계
를 포함하는 로봇 팔의 힘 학습 방법.
The method of claim 10,
The step of predicting the interaction force of the robot arm,
Generating a virtual image representing a change in motion information over time based on the time series motion information in a graph form and inputting it to a first convolutional layer of a CNN;
Inputting the actual images accumulated over time into a second convolutional layer different from the first convolutional layer;
Matching the virtual image output from the first convolutional layer and the actual image output from the second convolutional layer using a pooling layer; And
Classifying the matched information through a fully connected layer to predict the time series motion information and the interaction force of the robot arm corresponding to the real image and the physical property value of the object
Robot arm force learning method comprising a.
시간의 경과에 따른 오브젝트들 간의 상호 작용을 연속으로 촬영하여 생성한 실제 영상을 획득하는 영상 획득부;
시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 시계열 동작 정보를 획득하는 동작 정보 획득부; 및
상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 힘 예측부
를 포함하고,
상기 힘 예측부는,
상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 장치.
An image acquiring unit for acquiring an actual image generated by continuously photographing interactions between objects over time;
A motion information acquiring unit for acquiring time-series motion information of a robot arm related to a change in position of the objects or deformation of the objects over time; And
A force prediction unit predicting an interaction force between the objects based on a change in the position of the objects or a deformation of the objects included in the real image
Including,
The force prediction unit,
The actual images, the time series motion information, the physical properties of the object and the learning result of the correlation between the interaction force of the robot arm are stored in the database, and the physical images, the time series motion information, and the physical properties of the object are applied to the database. An interaction force prediction device that predicts the interaction force of a robot arm.
삭제delete 삭제delete 제13항에 있어서,
상기 시계열 동작 정보는,
시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 장치.
The method of claim 13,
The time series operation information,
Interaction force prediction including at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. Device.
제13항에 있어서,
상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및
상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부
를 더 포함하는 상호 작용 힘 예측 장치.
The method of claim 13,
A haptic sensing information prediction unit predicting haptic sensing information using the predicted interaction force of the robot arm with the physical properties of the object; And
A feedback unit that provides feedback to the user of the robot arm according to the haptic sensing information
Interaction force prediction device further comprising.
오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 통신기;
상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및
예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부
를 포함하는 로봇 팔의 힘 학습 장치.
A communicator for acquiring real-time images generated by photographing the motion of the robot arm associated with the object and time-series motion information related to the motion of the robot arm;
A force predicting unit that inputs the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object; And
Comparing the predicted interaction force of the robot arm and the physical force of the object with the sensor's interaction force and the physical force of the object, the actual images and the time series motion information, the physical property value of the object, and Correlation learning unit for learning the correlation between the interaction forces of the robot arm
Robot arm force learning device comprising a.
제18항에 있어서,
상기 힘 예측부는,
상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치.
The method of claim 18,
The force prediction unit,
A class score of time-series motion information of the robot is extracted by using a first FC layer to which the time-series motion information of the robot is input, by extracting a region related to the robot motion from the real images using a CNN where the real images are input. Second, learning the relationship between the region changing over time and the time series operation information by inputting the extracted region and the class scores of the time series operation information to the RNN, and inputting the learning result of the RNN A force learning device for a robot arm that calculates class scores of the learning result by the FC layer and predicts the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object.
제18항에 있어서,
상기 힘 예측부는,
상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치.
The method of claim 18,
The force prediction unit,
Based on the time-series motion information, a virtual image representing a change in motion information over time in a graph form is generated and input to a first convolutional layer of CNN, and the accumulated real images over time are removed from the virtual image. Inputted to a second convolutional layer different from one convolutional layer, the virtual image output from the first convolutional layer and the actual images output from the second convolutional layer are matched and matched using an integrated layer. A robot arm force learning device that classifies information through an FC layer to predict the interaction force of the robot arm corresponding to the time series motion information and the actual image, and the physical property value of the object.
KR1020180066861A 2018-06-11 2018-06-11 System and method for predicting force based on image KR102094360B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180066861A KR102094360B1 (en) 2018-06-11 2018-06-11 System and method for predicting force based on image
PCT/KR2018/011808 WO2019240330A1 (en) 2018-06-11 2018-10-08 Image-based strength prediction system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180066861A KR102094360B1 (en) 2018-06-11 2018-06-11 System and method for predicting force based on image

Publications (2)

Publication Number Publication Date
KR20190140546A KR20190140546A (en) 2019-12-20
KR102094360B1 true KR102094360B1 (en) 2020-03-30

Family

ID=68843407

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180066861A KR102094360B1 (en) 2018-06-11 2018-06-11 System and method for predicting force based on image

Country Status (2)

Country Link
KR (1) KR102094360B1 (en)
WO (1) WO2019240330A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102386009B1 (en) * 2020-07-30 2022-04-13 네이버랩스 주식회사 Method for learning robot task and robot system using the same
CN112530553A (en) * 2020-12-03 2021-03-19 中国科学院深圳先进技术研究院 Method and device for estimating interaction force between soft tissue and tool
KR102401800B1 (en) * 2021-10-28 2022-05-26 주식회사 오비고 Methods for learning and experiencing virtual object with actual feeling and devices using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008746A (en) 2006-06-29 2008-01-17 Univ Of Tokyo Tactile sensor using reflected image
JP2010066028A (en) 2008-09-08 2010-03-25 Hiroshima Univ Applied force estimation apparatus and method
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
JP2017030135A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101199940B1 (en) * 2010-12-15 2012-11-09 전자부품연구원 Apparatus for image tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008746A (en) 2006-06-29 2008-01-17 Univ Of Tokyo Tactile sensor using reflected image
JP2010066028A (en) 2008-09-08 2010-03-25 Hiroshima Univ Applied force estimation apparatus and method
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
JP2017030135A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AVILES et al. 7th International IEEE/EMBS Conference on Neural Engineering (NER), IEEE, 2015.04.24, pp 86-89.
AVILES et al., 2015 Conference of the International Fuzzy Systems Association and the European Society for Fuzzy Logic and Technology, 2015.06.30., pp.1465-1472*
AVILES et al., 4th International Conference on Image Processing Theory, Tools and Applications (IPTA), IEEE, 2014.10.17., pp.1-6*

Also Published As

Publication number Publication date
WO2019240330A1 (en) 2019-12-19
KR20190140546A (en) 2019-12-20

Similar Documents

Publication Publication Date Title
US11605161B2 (en) Surgical workflow and activity detection based on surgical videos
CN112714896B (en) Self-aware vision-text common ground navigation agent
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
KR102564855B1 (en) Device and method to recognize object and face expression, and device and method to train obejct and face expression robust to facial change
KR102094360B1 (en) System and method for predicting force based on image
KR102036955B1 (en) Method for recognizing subtle facial expression using deep learning based analysis of micro facial dynamics and apparatus therefor
KR101986002B1 (en) Artificial agents and method for human intention understanding based on perception-action connected learning, recording medium for performing the method
EP3499412B1 (en) Object recognition and liveness detection and apparatus
KR102133728B1 (en) Device, method and readable media for multimodal recognizing emotion based on artificial intelligence
KR20190018276A (en) Method and apparatus for training model and for recognizing bawed on the model
KR20160012537A (en) Neural network training method and apparatus, data processing apparatus
Hellman et al. Functional contour-following via haptic perception and reinforcement learning
US20210034842A1 (en) Method, electronic device, and computer readable medium for image identification
KR20200085696A (en) Method of processing video for determining emotion of a person
Sarikaya et al. Surgical gesture recognition with optical flow only
JP2023513613A (en) Adaptive co-distillation model
KR20210018586A (en) Method and apparatus for identifying video content using biometric features of characters
Ramakrishnan et al. A novel approach for emotion recognition for pose invariant images using prototypical networks
KR102394759B1 (en) Method of machine-learning by collecting features of data and apparatus thereof
Hao et al. ACT-Net: Anchor-Context Action Detection in Surgery Videos
Mocanu et al. Human activity recognition with convolution neural network using tiago robot
KR102573796B1 (en) Apparatus and method for determining musculoskeletal disease
CN116648700A (en) Audio data transcription training learning algorithm identifies visible medical devices in image data
Liu et al. Active Sparse Conversations for Improved Audio-Visual Embodied Navigation
Roubleh et al. Video based human activities recognition using deep learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant