KR20180129301A - Method and apparatus for emulating behavior of robot - Google Patents
Method and apparatus for emulating behavior of robot Download PDFInfo
- Publication number
- KR20180129301A KR20180129301A KR1020170065111A KR20170065111A KR20180129301A KR 20180129301 A KR20180129301 A KR 20180129301A KR 1020170065111 A KR1020170065111 A KR 1020170065111A KR 20170065111 A KR20170065111 A KR 20170065111A KR 20180129301 A KR20180129301 A KR 20180129301A
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- region
- robot
- information
- sequence
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 로봇의 행동 모방 장치 및 그 방법에 관한 것으로, 보다 상세하게는 시연자의 행동을 인식하여 모방하는 로봇의 행동 모사 학습 시스템에 관한 것이다.BACKGROUND OF THE
일반적으로 로봇이 특정한 목적을 갖는 태스크(task)를 수행하기 위해서는 로봇이 해당 태스크를 이해해야 하며, 태스크의 순서를 기억할 수 있어야 한다.In general, in order for a robot to perform a task having a specific purpose, the robot must understand the task and be able to remember the order of the task.
다만, 지금까지는 사람이 로봇의 모든 동작 및 순서를 지정하여 입력하는 방식을 사용해왔다. 이러한 경우 로봇은 환경변화에 민감한 특성을 나타내며, 작은 환경변화에도 태스크 수행이 어렵다는 한계가 존재하였다.However, until now, a person has used a method of specifying and inputting all operations and sequences of robots. In this case, robots are sensitive to environmental changes, and there is a limit to the difficulty of performing tasks even in small environment changes.
종래의 행동인식 기술로서, Bobick, A. F외 1인이 발표한 논문 "The Recognition of Human Movement Using Temporal Templates", IEEE Transactions on pattern Analysis and Machine Intelligence, 2001"이 있다. 이 논문에서는 시간에 따라 정면에 있는 사람의 실루엣을 가중 누적한 MHI(Motion History Image)를 이용하여 행동을 인식하는 기술이 개시된다. 그러나, 이 기술은 고정된 한 대의 비디오카메라를 이용하기 때문에, 비디오카메라가 촬영한 영상에서의 시연자의 움직임 방향이 행동인식기가 학습한 방향과 일치하지 않으면 행동인식을 수행할 수 없는 문제점이 있다.As a conventional behavior recognition technology, there is Bobick, A. F. et al., "The Recognition of Human Movement Using Temporal Templates," IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001. In this paper, A technique of recognizing a behavior using MHI (Motion History Image) which accumulates a silhouette of a person on the front side is disclosed. However, since this technique uses one fixed video camera, There is a problem that the behavior recognition can not be performed if the direction of the performer's motion in the motion recognizer does not coincide with the direction learned by the behavior recognizer.
이러한 문제점을 해결하기 위한 종래의 행동인식 기술로서, Weinland, D.외 2인이 발표한 논문 "Free Viewpoint Action Recognition using Motion History Volumes", Computer vision and Image Understanding, 2006"이 있다. 이 논문에 개시된 기술은 4대의 카메라로부터 입력되는 영상을 정합하여 3차원 모델을 생성하기 때문에, 시점으로부터 자유로운 행동인식이 가능한 장점이 있다. 그러나, 4대의 카메라 데이터를 정합하는 과정은 복잡한 계산을 필요로 하므로 실시간 동작이 불가능한 문제점이 있다. 또한, 이 종래기술은 4대의 카메라가 모두 대상체(시연자)를 포착하여야만 행동인식이 가능하고, 한 대의 카메라라도 대상체를 포착하지 못한 상태에서는 행동인식을 수행할 수 없는 문제점이 있다. 또한, 행동인식을 하고자 하는 모든 공간마다 4대의 카메라를 설치해야 하므로 행동인식 시스템을 구축하는데 너무 많은 비용이 소요되는 문제점이 있다.As a conventional behavior recognition technology for solving such a problem, there is "Free Viewpoint Action Recognition using Motion History Volumes", Computer Vision and Image Understanding, 2006, published by Weinland, D. et al. However, since the process of matching the four camera data requires complicated calculation, it is necessary to perform a real-time operation This conventional technique has a problem that it is not possible to perform the behavior recognition only when all the four cameras capture the object (the performer), and even if one camera can not capture the object, the behavior recognition can not be performed In addition, since four cameras should be installed in every space where we want to recognize the behavior, There is a problem that too much cost is required to construct an expression system.
또한, 전술한 바와 같은 종래의 행동인식 기술은 시연자의 행동을 감지하기 위해 많은 수의 카메라를 필요로 한다는 단점이 존재하여 로봇에 적용하기 어렵다는 한계가 존재하였다.In addition, the above-described conventional behavior recognition technology has a disadvantage in that it requires a large number of cameras to detect the behavior of the performer, and thus it is difficult to apply it to robots.
이를 해결하기 위해 본 발명은 센서를 이용하여 시연자의 행동을 인식하고, 이를 로봇이 학습하여 행동으로 모방하는 행동 모사 학습 시스템을 제안한다. In order to solve this problem, the present invention proposes a behavior simulation learning system that recognizes the behavior of the performer using the sensor, and imitates the behavior of the robot by learning it.
본 발명의 목적은 시연자의 행동을 기반으로 물체영역 및 사람의 신체영역을 검출하여 행동을 인식하고, 기 설정된 일정시간 동안 시연된 시연자의 행동의 시퀀스를 학습할 수 있는 로봇의 행동 모방 장치 및 그 방법을 제공하고자 한다.An object of the present invention is to provide a behavior mimic device of a robot capable of detecting an object zone and a body zone of a person based on a behavior of a demonstrator to recognize a behavior and learning a sequence of behaviors of the demonstrator demonstrated for a predetermined period of time, Method.
또한, 본 발명의 목적은 학습된 시연자의 행동 시퀀스에 따라 행동을 모방하도록 로봇을 제어할 수 있는 로봇의 행동 모방 장치 및 그 방법을 제공하고자 한다. It is also an object of the present invention to provide a behavior mimic device and method of a robot capable of controlling a robot to imitate a behavior in accordance with a behavior sequence of a learned performer.
본 발명의 실시예에 따른 로봇의 행동 모방 장치는 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 검출부, 상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 물체 인식부, 기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 정보 저장부 및 상기 정보 저장부에 저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 행동 인식부를 포함한다.A behavior mimic device of a robot according to an embodiment of the present invention includes a detection unit that detects an object zone and a human body zone from sensed data according to a behavior of a viewer sensed by a sensor, An object storage unit for storing and holding the object recognition result, and an information storage unit for storing the object recognition result, and an information storage unit for storing the object recognition result, And a behavior recognition unit for learning a sequence of behaviors based on the object recognition result and the body region of the object region and the human body region according to the behavior of the performer stored and held in the body region.
또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 상기 학습된 행동의 시퀀스에 따라 모방하도록 제어하는 제어부를 더 포함할 수 있다.Further, the behavior mimic device of the robot according to the embodiment of the present invention may further include a controller for controlling the mimic according to the sequence of the learned behaviors.
상기 검출부는 RGBDT(색상거리온도) 센서를 이용하여 상기 시연자의 행동에 대한 상기 감지 데이터를 획득할 수 있다.The detection unit may use the RGBDT (color distance temperature) sensor to obtain the sensed data on the behavior of the demonstrator.
상기 검출부는 상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 물체 검출 모듈 및 상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 신체 검출 모듈을 포함할 수 있다.The detecting unit may include an object detecting module for detecting the object region from the depth information in the sensing data, and a body detecting module for detecting the human body region from the color information, the depth information, and the temperature information in the sensing data have.
상기 물체 검출 모듈은 상기 감지 데이터에 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 평면을 검출하고, 상기 검출된 평면의 하단 영역을 제거하여 상기 깊이정보를 기반으로 상기 물체영역을 검출할 수 있다.The object detection module may detect a plane by applying a Random Access Consensus (RANSAC) algorithm to the sensed data, and may detect the object region based on the depth information by removing a bottom region of the detected plane .
상기 신체 검출 모듈은 스킨 컬러 감지 알고리즘(skin color detection algorithm)이 적용된 색상정보, 및 상기 온도정보를 이용하여 사람의 피부영역을 검출하고, 상기 깊이정보를 이용하여 상기 사람의 신체영역을 검출할 수 있다.The body detection module detects a human skin region using color information to which a skin color detection algorithm is applied and the temperature information and detects the human body region using the depth information have.
상기 물체 인식부는 심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식할 수 있다.The object recognition unit may recognize the position and type of the object according to the color information using a deep neural network.
상기 정보 저장부는 상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장할 수 있다.The information storage unit may store the position and type of the recognized object in the object zone and the position of the body part in the body zone of the person.
상기 정보 저장부는 기 설정된 일정시간 동안 검출되는 상기 인식된 물체의 위치, 및 상기 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지할 수 있다.The information storage unit may store and maintain relative distances and relative velocities between the object and the object or between the object and the body on the basis of the position of the recognized object and the position of the body detected for a predetermined period of time.
상기 행동 인식부는 기 설정된 일정시간 동안 시연되는 상기 시연자의 행동에 따른 상기 행동의 시퀀스를 학습할 수 있다.The behavior recognition unit may learn the sequence of the behavior according to the behavior of the performer that is demonstrated for a predetermined period of time.
상기 행동 인식부는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식할 수 있다.The behavior recognition unit may recognize the sequence of the behavior for each frame of the sensing data based on the object region and the human body region using the Recurrent Neural Network (RNN) have.
본 발명의 실시예에 따른 로봇의 행동 모방 장치를 이용하여 시연자의 행동을 모방하는 로봇의 행동 모방 방법은 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 단계, 상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 단계, 기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 단계, 저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 단계 및 상기 학습된 행동의 시퀀스에 따라 모방하도록 상기 로봇을 제어하는 단계를 포함한다.A method of mimicking a behavior of a robot using a behavior mimic device of a robot according to an embodiment of the present invention includes detecting an object zone and a human body zone from sensed data according to a behavior of a player sensed by a sensor Extracting the detected object zone from the color information in the sensed data to recognize the position and type of the object, detecting the object zone and the body zone of the person detected for a predetermined period of time, Storing and maintaining the object region, the object region and the body region of the person according to the behavior of the performer stored and maintained, learning a sequence of behaviors based on the object recognition result, And controlling the robot to imitate the robot.
상기 물체영역 및 사람의 신체영역을 검출하는 단계는 상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 단계 및 상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 단계를 포함할 수 있다.Wherein the detecting of the object region and the human body region includes detecting the object region from the depth information in the sensed data and detecting the body region of the person from the color information, .
상기 물체의 위치 및 종류를 인식하는 단계는 심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식할 수 있다.The step of recognizing the position and the type of the object may recognize a position and a type of the object according to the color information using a deep neural network.
상기 저장하여 유지하는 단계는 상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장할 수 있다.The step of storing and storing may store the position and type of the recognized object in the object zone and the position of the body part in the body zone of the person.
상기 행동의 시퀀스를 학습하는 단계는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식할 수 있다. The step of learning the sequence of actions may comprise the steps of: using the Recurrent Neural Network (RNN) to determine the position of the object region and the body region of the person; and, based on the object recognition result, The sequence can be recognized.
본 발명의 실시예에 따르면, 시연자의 행동을 기반으로 물체영역 및 사람의 신체영역을 검출하여 행동을 인식하고, 기 설정된 일정시간 동안 시연된 시연자의 행동의 시퀀스를 학습할 수 있다.According to the embodiment of the present invention, it is possible to detect an object zone and a body zone of a person based on a behavior of a performer, recognize a behavior, and learn a sequence of behaviors of the demonstrator demonstrated for a predetermined period of time.
또한, 본 발명의 실시예에 따르면, 학습된 시연자의 행동 시퀀스에 따라 행동을 모방하도록 로봇을 제어할 수 있다. Further, according to the embodiment of the present invention, the robot can be controlled to imitate the behavior according to the action sequence of the learned performer.
도 1은 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 구성을 나타내는 블록도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 실행 알고리즘을 도시한 것이다.
도 3a 내지 도 3c는 본 발명의 실시예에 따른 물체 인식 과정에서의 사진 결과를 도시한 것이다.
도 4는 본 발명의 실시예에 따른 행동 인식 과정에서의 사진 결과 및 알고리즘 구조를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 로봇의 행동 모방 방법의 흐름도를 도시한 것이다.1 is a block diagram showing a configuration of a behavior mimic device of a robot according to an embodiment of the present invention.
2 illustrates an execution algorithm of a behavior mimic device of a robot according to an embodiment of the present invention.
FIGS. 3A to 3C are photographs of an object recognition process according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a photograph result and an algorithm structure in a behavior recognition process according to an embodiment of the present invention.
5 is a flowchart illustrating a method of simulating behavior of a robot according to an embodiment of the present invention.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.
도 1은 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 구성을 나타내는 블록도를 도시한 것이다.1 is a block diagram showing a configuration of a behavior mimic device of a robot according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 센서를 통해 센싱되는 시연자의 행동에 대한 감지 데이터를 이용하여 물체영역 및 사람의 신체영역과 물체의 위치 및 종류를 인식하고, 인식 결과로부터 행동의 시퀀스를 학습한다.1, a behavior mimic device of a robot according to an embodiment of the present invention recognizes an object zone, a body zone of a person, and a position and a type of an object using sensed data of a behavior of a viewer sensed through a sensor , And learn sequences of behaviors from recognition results.
이에 따른, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 검출부(110), 물체 인식부(120), 정보 저장부(130) 및 행동 인식부(140)를 포함한다.The behavior
검출부(110)는 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출한다.The detection unit 110 detects the object region and the human body region from the sensed data according to the behavior of the performer sensed by the sensor.
예를 들면, 검출부(110)는 RGBDT(색상거리온도) 센서를 이용하여 시연자의 행동에 대한 감지 데이터를 획득할 수 있다. 여기서, 상기 RGBDT 센서는 색상정보를 센싱하는 컬러 센서, 깊이정보를 센싱하는 거리 센서, 및 온도정보를 센싱하는 온도 센서를 모두 포함하는 센서일 수 있다.For example, the detection unit 110 may acquire sensed data on the behavior of the performer using an RGBDT (color distance temperature) sensor. Here, the RGBDT sensor may include a color sensor for sensing color information, a distance sensor for sensing depth information, and a temperature sensor for sensing temperature information.
실시예에 따라서, 상기 컬러 센서는 RGB 센서일 수 있고, 상기 거리 센서는 레이저 센서, 거리 측정 센서, 초음파 센서, 및 위치 센서 중 적어도 어느 하나일 수 있으며, 상기 온도 센서는 비접촉 또는 접촉식 온도 센서일 수 있다. 다만, 본 발명은 전술한 센서의 종류에 한정하지 않으며, 시연자의 행동 또는 시연영상으로부터 색상정보, 깊이정보 및 온도정보를 센싱할 수 있는 센서(sensor)이면 가능하다. According to an embodiment, the color sensor may be an RGB sensor, and the distance sensor may be at least one of a laser sensor, a distance measuring sensor, an ultrasonic sensor, and a position sensor, Lt; / RTI > However, the present invention is not limited to the above-described types of sensors, but may be a sensor capable of sensing color information, depth information, and temperature information from the behavior or demonstration image of the performer.
또 다른 실시예에 따라서, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 카메라를 이용하여 획득되는 영상정보를 감지 데이터에 포함시킬 수도 있다. According to another embodiment, the behavior
상기 감지 데이터는 RGBDT 센서로부터 센싱된 색상정보(RGB), 깊이정보(D) 및 온도정보(T)를 모두 포함할 수 있다. The sensing data may include color information (RGB), depth information (D), and temperature information (T) sensed by the RGBDT sensor.
실시예에 따라서, 상기 RGBDT 센서로부터 센싱된 색상정보, 깊이정보 및 온도정보는 캘리브레이션(Calibration)을 통해 동일한 좌표계를 나타낼 수 있다. According to the embodiment, the color information, depth information, and temperature information sensed from the RGBDT sensor may represent the same coordinate system through calibration.
검출부(110)는 감지 데이터 내 깊이정보로부터 물체영역을 검출하는 물체 검출 모듈(111) 및 감지데이터 내 색상정보, 깊이정보 및 온도정보로부터 사람의 신체영역을 검출하는 신체 검출 모듈(112)을 포함할 수 있다.The detection unit 110 includes an
물체 검출 모듈(111)은 감지 데이터에 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 평면을 검출하고, 검출된 평면의 하단 영역을 제거하여 깊이정보를 기반으로 물체영역을 검출할 수 있다. The
상기 란삭 알고리즘은 사용자가 정의한 모델과 가장 유사한 형태의 데이터 세트를 검출하는 방법으로, 바닥 제거를 위해서 평면이라는 모델을 사용할 수 있다. 예를 들면, 센싱되는 감지 데이터에서 임의의 3개의 점을 후보점으로 선정하고 이로서 생성되는 평면과 나머지 픽셀 간의 거리가 임계값 이하에 존재하는 인라이어의 개수를 획득하며, 이를 반복하여 가장 많은 개수의 인라이어를 가진 후보점을 바닥의 평면으로 인지할 수 있다. The residual algorithm is a method for detecting a data set most similar to a user-defined model, and can use a model called a plane for floor removal. For example, the arbitrary three points are selected as candidate points from the sensing data to be sensed, and the number of inliers in which the distance between the plane and the remaining pixels are less than the threshold value is obtained, The candidate point having the inlier of the floor can be recognized as the plane of the floor.
이를 이용하여 물체 검출 모듈(111)은 감지 데이터 내 깊이정보를 기반으로 란삭 알고리즘으로부터 물체영역을 검출할 수 있다. 여기서, 물체는 평면 상에 존재한다고 가정한다.The
실시예에 따라서, 물체 검출 모듈(111)은 란삭 알고리즘을 이용하여 감지 데이터에서 가장 우선적인(dominant) 평면을 획득할 수 있고, 평면 아래의 모든 영역을 제거한 후 감지 데이터 내 깊이정보를 기반으로 물체영역을 검출할 수 있다. 상기 검출된 영역은 바운딩 박스(bounding box) 및 오브젝트 영역(object area) 두 가지로 표현하여 출력할 수 있다. According to an embodiment, the
신체 검출 모듈(112)은 스킨 컬러 감지 알고리즘(skin color detection algorithm)이 적용된 색상정보, 및 온도정보를 이용하여 사람의 피부영역을 검출하고, 깊이정보를 이용하여 사람의 신체영역을 검출할 수 있다. The
예를 들면, 신체 검출 모듈(112)은 색상정보를 이용한 스킨 컬러 감지 알고리즘과, 온도정보를 이용한 감지 데이터 내 발열되는 영역의 검출을 통해 획득되는 맵(map)을 융합하여 피부영역에 해당하는 부분을 검출할 수 있다. 이후, 신체 검출 모듈(112)은 깊이정보를 이용하여 피부영역 중 끝 포인트(end point)를 손의 위치로 정의하여 사람의 신체영역을 검출할 수 있다. For example, the
실시예에 따라서, 신체 검출 모듈(112)은 사람의 신체영역으로 손 검출을 중점적으로 실행하나, 손 외에 머리, 다리 및 팔 등을 검출할 수 있으며, 피부영역 중 끝 포인트를 이용하여 다양한 사람의 신체영역을 검출할 수 있다. According to an embodiment, the
사람의 피부영역 및 신체영역을 검출하는 방법을 보다 상세히 설명하면, 신체 검출 모듈(112)은 스킨 컬러 감지 알고리즘을 이용하여 감지 데이터 내 색상정보로부터 복수의 픽셀들 각각을 분류할 수 있다. 이후, 신체 검출 모듈(112)은 시간의 흐름(over time)에 기반하여 센서에 의해 센싱되는 색상정보들의 시퀀스로 픽셀의 색상 값(color value)과, 시연자의 피부 톤(human skin tone)들의 미리 결정된 범위 내의 색상 값들을 갖는 영역(region)을 추적(track)하여 피부영역 또는 신체영역을 검출할 수 있다. Describing in more detail a method for detecting a human skin area and a body area, the
실시예에 따라서, 상기 미리 결정된 범위는 일반적인 사람의 피부 톤을 감지할 수 있는 피부 톤에 근접한 색상 값들의 범위를 일컫을 수 있으며, 이는 사용자에 의해 기 설정될 수 있다. Depending on the embodiment, the predetermined range may refer to a range of color values close to the skin tone that can detect a general person's skin tone, which may be preset by the user.
물체 인식부(120)는 감지 데이터 내 색상정보에서 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식한다. The
보다 구체적으로 물체 인식부(120)는 심층 신경망(deep neural network)를 이용하여 색상정보에 따른 물체의 위치 및 종류를 인식할 수 있다. More specifically, the
예를 들면, 물체 인식부(120)는 검출부(110)로부터 검출되는 색상정보 및 물체영역에 기반한 바운딩 박스(bounding box)를 이용하여 물체의 위치 및 종류를 인식할 수 있으며, 물체인식의 성능 및 환경변화에 강인한 특성을 위해 심층 신경망을 이용하여 물체인식을 수행할 수 있다. 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집하여 학습을 수행할 수 있다. For example, the
정보 저장부(130)는 기 설정된 일정시간 동안 검출되는 물체영역 및 사람의 신체영역과, 물체 인식 결과를 저장하여 유지한다. 상기 기 설정된 일정시간은 사용자에 의해 설정되는 시간으로 실시예에 따라서 초, 분 또는 시 단위로 설정될 수 있으므로 한정되지 않는다. The
정보 저장부(130)는 물체영역에서의 인식된 물체의 위치 및 종류와, 사람의 신체영역에서의 신체 일부의 위치를 저장할 수 있다.The
보다 구체적으로, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 일정 시간 동안의 물체영역 및 신체영역의 변화를 기반으로 모사학습을 위한 행동인식을 수행해야 한다. 예를 들면, 시연자의 서로 다른 행동에 대해서도 감지 데이터에서는 동일한 영상 및 위치관계를 나타낼 수 있으므로, 보다 정확한 행동인식을 위해서는 시간적인 특징변화가 적용되어야 한다. More specifically, the behavior
이를 위해 정보 저장부(130)는 기 설정된 일정시간 동안 검출부(110)로부터 검출되는 물체영역 및 신체영역의 검출 결과와, 물체 인식부(120)로부터 인식된 물체 인식 결과를 저장하고, 행동 인식부(140)로 저장되어 유지되는 정보를 제공하는 역할을 수행할 수 있다. To this end, the
또한, 정보 저장부(130)는 기 설정된 일정시간 동안 검출되는 물체의 위치 및 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지할 수 있다. The
행동 인식부(140)는 정보 저장부(130)에 저장되어 유지되는 시연자의 행동에 따른 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 행동의 시퀀스를 학습한다. The
행동 인식부(140)는 기 설정된 일정시간 동안 시연되는 시연자의 행동에 따른 행동의 시퀀스를 학습할 수 있다.The
보다 구체적으로 행동 인식부(140)는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 감지 데이터의 매 프레임마다 행동의 시퀀스를 인식할 수 있다. 실시예에 따라서, 행동 인식부(140)는 정보 저장부(130)에 저장되어 유지되는 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 이용하여 행동의 시퀀스를 인식할 수도 있다. More specifically, the
예를 들면, 행동 인식부(140)는 기 설정된 일정시간 동안의 시연자의 행동의 특징들을 기반으로 행동 인식이 수행되어야 하므로, 물체영역 및 사람의 신체영역과, 물체 인식 결과를 수신하여 행동의 시퀀스를 학습할 수 있다. For example, since the
행동 인식부(140)는 정보 저장부(130)로부터 수신된 정보를 기반으로 기 설정된 일정시간 동안 연속된 정보에 대한 인식 성능 및 환경변화에 강인한 특성을 위해 순환형 신경망을 이용하여 매 프레임에 대한 시연자의 행동을 인식할 수 있다. Based on the information received from the
여기서, 상기 순환형 신경망(Recurrent Neural Network; RNN)은 신경망의 은닉 계층(hidden layer)에서 재귀적인 입력이 가능하도록 모델을 수정함으로써 순차적(sequential)으로 입력되거나 인자(feature)의 순서(sequence)가 입력으로 주어지는 데이터로부터 패턴을 효과적으로 학습 가능한, 시간적 측면이 고려된 신경망 모델일 수 있다. Here, the Recurrent Neural Network (RNN) may be sequentially input by modifying the model to allow recursive input in a hidden layer of a neural network, or a sequence of features may be input It may be a neural network model considering temporal aspects that can effectively learn patterns from data given as input.
또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 학습된 행동의 시퀀스에 따라 로봇을 모방하도록 제어하는 제어부(150)를 더 포함할 수 있다. In addition, the behavior
실시예에 따라서, 제어부(150)는 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100) 내 검출부(110), 물체 인식부(120), 정보 저장부(130) 및 행동 인식부(140)의 동작을 수행 및 제어할 수 있다. The
도 2는 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 실행 알고리즘을 도시한 것이다. 2 illustrates an execution algorithm of a behavior mimic device of a robot according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 RGBDT 센서(210)를 이용하여 시연자의 행동에 따른 색상정보(211), 깊이정보(212) 및 온도정보(213)를 포함하는 감지 데이터를 센싱할 수 있다.2, the behavior mimic device of the robot according to an embodiment of the present invention uses
이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 깊이정보(212)로부터 물체영역을 검출(220)할 수 있다. 보다 구체적으로 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 RGBDT 센서(210)로부터 센싱된 감지 데이터의 평면을 검출하고, 검출된 평면의 하단 영역을 제거하여 깊이정보(212)를 기반으로 물체영역(ROI, region of interest) 및 물체 위치를 검출(221)할 수 있다. Then, the behavior mimic device of the robot according to the embodiment of the present invention can detect (220) the object zone from the
또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 색상정보(211), 및 온도정보(213)를 이용하여 사람의 피부영역을 검출(222)할 수 있으며, 깊이정보(212)를 이용하여 신체영역을 검출(223)할 수 있다.In addition, the behavior mimic device of the robot according to the embodiment of the present invention can detect (222) a human skin area using
보다 구체적으로 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 색상정보(211)를 이용한 스킨 컬러 감지 알고리즘(skin color detection algorithm)과, 온도정보(213)를 이용하여 발열되는 영역의 검출을 통해 획득되는 맵(map)을 융합하여 사람의 피부영역(222)에 해당하는 부분을 검출할 수 있다. 이후, 깊이정보(212)를 이용하여 피부영역 중 끝 포인트(end point)를 손 또는 신체 일부의 위치로 정의하여 사람의 신체영역을 검출(223)할 수 있다. More specifically, the behavior mimic device of a robot according to an embodiment of the present invention includes a skin color detection algorithm using
이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 심층 신경망(deep neural network)를 이용하여 색상정보(211)로부터 물체를 인식(230)하고, 이에 따른 물체의 위치 및 종류를 인식(231)할 수 있다. The behavior mimic device of the robot according to the embodiment of the present invention recognizes an
예를 들면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 검출되는 색상정보(211), 물체영역(221) 및 신체영역(223)에 기반한 바운딩 박스(bounding box) 및 심층 신경망을 이용하여 물체인식을 수행(230)할 수 있으며, 이에 따른 물체의 위치 및 종류를 인식(231)할 수 있다. 여기서, 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집 및 학습할 수 있다. For example, a behavior mimic device of a robot according to an embodiment of the present invention may use a depthing network and a bounding box based on detected
이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 물체영역(221), 물체영역에서의 인식된 물체의 위치 및 종류(231)와, 사람의 신체영역에서의 신체 일부(223)의 위치를 저장(240)할 수 있다. Thereafter, the behavior mimic device of the robot according to the embodiment of the present invention includes an
또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 기 설정된 일정시간 동안 검출되는 인식된 물체의 위치(221) 및 신체 일부의 위치(223)에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장(241)하여 유지할 수 있다. In addition, the behavior mimic device of the robot according to the embodiment of the present invention is configured to measure the position and orientation of an object and an object based on a recognized
이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 기 설정된 일정시간 동안의 시연자의 행동의 특징들을 기반으로 행동 인식(250)이 수행되어야 하므로, 저장된 정보(241, 예를 들면, 물체영역(221) 및 사람의 신체영역(223)과 물체 인식 결과(231))를 수신하여 행동의 시퀀스(251)를 학습할 수 있다. Hereinafter, the behavior mimic device of the robot according to the embodiment of the present invention is configured such that the
예를 들면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 저장된 정보(241)를 기반으로, 기 설정된 일정시간 동안의 연속된 정보에 대한 인식 성능 및 환경변화에 강인한 특성을 위해 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 매 프레임에 대한 시연자의 행동 시퀀스(251)를 인식할 수 있다. For example, the behavior mimic device of the robot according to the embodiment of the present invention may be configured to perform a behavioral simulation based on the stored
도 3a 내지 도 3c는 본 발명의 실시예에 따른 물체 인식 과정에서의 사진 결과를 도시한 것이다.FIGS. 3A to 3C are photographs of an object recognition process according to an embodiment of the present invention.
보다 구체적으로, 도 3a는 본 발명의 실시예에 따른 RGBDT 센서로부터 센싱된 감지 데이터의 사진 결과를 도시한 것이고, 도 3b는 본 발명의 실시예에 따른 감지 데이터의 배경을 제거한 사진 결과를 도시한 것이며, 도 3c는 물체 인식에 대한 사진 결과를 도시한 것이다.More specifically, FIG. 3A shows a photograph result of sensing data sensed from an RGBDT sensor according to an embodiment of the present invention, FIG. 3B shows a photograph result of eliminating the background of sensed data according to an embodiment of the present invention And Fig. 3C shows a photograph result of object recognition.
도 3a를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 RGBDT 센서를 이용하여 색상정보, 깊이정보 및 온도정보를 포함하는 감지 데이터를 획득할 수 있다.Referring to FIG. 3A, a behavior mimic device of a robot according to an embodiment of the present invention can acquire sensing data including color information, depth information, and temperature information using an RGBDT sensor.
도 3b를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 도 3a에서 획득된 감지 데이터에 배경을 제거할 수 있다.Referring to FIG. 3B, the behavior mimic device of the robot according to the embodiment of the present invention can remove the background to the sensed data obtained in FIG. 3A.
이후, 도 3c를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 검출되는 색상정보 및 물체영역에 기반한 복수의 바운딩 박스(빨간 네모)를 이용하여 물체의 위치 및 종류를 인식할 수 있으며, 물체인식의 성능 및 환경변화에 강인한 특성을 위해 심층 신경망(deep neural network)을 이용하여 물체인식을 수행할 수 있다. 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집하여 학습을 수행할 수 있다.3C, the behavior mimic device of the robot according to an embodiment of the present invention can recognize the position and type of an object using a plurality of bounding boxes (red squares) based on detected color information and object zones Object recognition can be performed using a deep neural network for robustness to object recognition performance and environmental changes. The in-depth neural network can perform learning by collecting learning data about an object of a task to be demonstrated and learned.
이에 따라서, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 도 3a 내지 도 3c에서와 같이 센싱되는 감지 데이터를 이용하여 물체의 위치 및 종류를 인식할 수 있다. Accordingly, the behavior mimic device of the robot according to the embodiment of the present invention can recognize the position and the type of the object using the sensed data as shown in FIGS. 3A to 3C.
도 4는 본 발명의 실시예에 따른 행동 인식 과정에서의 사진 결과 및 알고리즘 구조를 도시한 것이다. FIG. 4 is a diagram illustrating a photograph result and an algorithm structure in a behavior recognition process according to an embodiment of the present invention.
보다 구체적으로, 도 4(a)는 본 발명의 실시예에 따라 검출되는 물체영역 및 신체영역의 사진 결과를 도시한 것이고, 도 4(b)는 본 발명의 실시예에 따른 행동 인식을 위한 순환형 신경망(Recurrent Neural Network; RNN) 알고리즘의 구조를 도시한 것이다.More specifically, Fig. 4 (a) shows photograph results of an object zone and a bodily zone detected according to an embodiment of the present invention, and Fig. 4 (b) (RNN) algorithm of the present invention.
도 4(a)를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출할 수 있다.Referring to FIG. 4A, a behavior mimic device of a robot according to an embodiment of the present invention can detect an object zone and a human body zone from sensed data according to a behavior of a performer.
예를 들면, 도 4(a)에서 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 시연자의 손(Hand)을 신체영역으로 감지할 수 있다. 또한, 시연자의 손에 위치하는 컵(GC)을 물체영역으로 감지할 수 있으며, 탁상에 위치하는 그릇(Bowl)을 물체영역으로 감지할 수 있다. For example, in FIG. 4 (a), a behavior mimic device of a robot according to an embodiment of the present invention can sense a hand of a performer as a body area. In addition, the cup GC located in the hand of the performer can be detected as an object region, and a bowl located on a tabletop can be detected as an object region.
이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 기 설정된 일정시간 동안의 검출되는 순차적인(Sequential) 물체영역 및 신체영역의 정보를 3차원의 위치정보에 기반하여 저장할 수 있다.Hereinafter, the behavior mimic device of the robot according to the embodiment of the present invention may store the information of the sequential object region and the body region detected for a preset predetermined time based on the three-dimensional position information.
이후, 도 4(b)에서 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 행동인식에 사용되는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 시연자의 행동의 시퀀스를 학습하여 행동을 인식할 수 있다.4 (b), the behavior mimic device of the robot according to the embodiment of the present invention learns a sequence of behaviors of a performer using a recurrent neural network (RNN) can do.
예를 들면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 저장된 정보의 물체영역 및 사람의 신체영역과, 물체 인식 결과(Hand, Bowl, GC 등)를 기반으로 감지 데이터의 매 프레임마다 행동의 시퀀스를 인식하여 시연자의 행동을 인식할 수 있다. For example, the behavior mimic device of a robot according to an embodiment of the present invention may include an object region and a human body region of information stored using a Recurrent Neural Network (RNN), object recognition results (Hand, Bowl, GC, etc.), it is possible to recognize the behavior of the performer by recognizing the sequence of action every frame of the sensed data.
보다 구체적으로 도 4(b)를 참조하면, 상기 순환형 신경망 모델(Recurrent Neural Network; RNN)은 신경망의 은닉 계층(hidden layer)에서 재귀적인 입력이 가능하도록 모델을 수정함으로써 순차적(sequential)으로 입력되거나 인자(feature)의 순서(sequence)가 입력으로 주어지는 데이터(1, 2, 3, …, n2, n1, n)로부터 패턴을 효과적으로 학습 가능한, 시간적 측면이 고려된 신경망 구조를 나타낼 수 있다. More specifically, referring to FIG. 4B, the Recurrent Neural Network (RNN) can be modeled as a sequential input by modifying the model so that recursive input is possible in a hidden layer of a neural network Or a neural network structure considering temporal aspects that can effectively learn patterns from data (1, 2, 3, ..., n2, n1, n) given as inputs of sequences of features.
도 5는 본 발명의 실시예에 따른 로봇의 행동 모방 방법의 흐름도를 도시한 것이다.5 is a flowchart illustrating a method of simulating behavior of a robot according to an embodiment of the present invention.
도 5에 도시된 방법은 도 1에 도시된 본 발명의 실시예에 따른 시연자의 행동을 모방하는 로봇의 행동 모방 장치에 의해 수행될 수 있다.The method shown in Fig. 5 can be performed by a behavior mimic device of a robot that imitates a behavior of a demonstrator according to an embodiment of the present invention shown in Fig.
도 5를 참조하면, 단계 510에서 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출한다.Referring to FIG. 5, in
예를 들면, 단계 510은 감지 데이터 내 깊이정보로부터 물체영역을 검출하는 단계(미도시) 및 감지 데이터 내 색상정보, 깊이정보 및 온도정보로부터 사람의 신체영역을 검출하는 단계(미도시)를 포함하는 단계일 수 있다. For example,
실시예에 따라서, 단계 510은 RGBDT(색상거리온도) 센서를 이용하여 시연자의 행동에 대한 감지 데이터를 획득할 수 있으며, 상기 RGBDT 센서는 색상정보를 센싱하는 컬러 센서, 깊이정보를 센싱하는 거리 센서, 및 온도정보를 센싱하는 온도 센서를 모두 포함하는 센서(sensor)일 수 있다.According to an embodiment, step 510 may utilize an RGBDT (color distance temperature) sensor to obtain sensed data on the behavior of the performer, wherein the RGBDT sensor includes a color sensor for sensing color information, a distance sensor , And a temperature sensor that senses temperature information.
단계 520에서 감지 데이터 내 색상정보에서 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식한다.In
단계 520은 심층 신경망(deep neural network)를 이용하여 색상정보에 따른 물체의 위치 및 종류를 인식하는 단계일 수 있다. Step 520 may be a step of recognizing the position and type of an object according to color information using a deep neural network.
예를 들면, 단계 520은 검출되는 색상정보 및 물체영역에 기반한 바운딩 박스(bounding box)를 이용하여 물체의 위치 및 종류를 인식할 수 있으며, 물체인식의 성능 및 환경변화에 강인한 특성을 위해 심층 신경망을 이용하여 물체인식을 수행하는 단계일 수 있다. 여기서, 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집하여 학습을 수행하는 모델(또는 알고리즘)일 수 있다. For example, in
단계 530에서 기 설정된 일정시간 동안 검출되는 물체영역 및 사람의 신체영역과, 물체 인식 결과를 저장하여 유지한다.In
단계 530은 물체영역에서의 인식된 물체의 위치 및 종류와, 사람의 신체영역에서의 신체 일부의 위치를 저장하는 단계일 수 있다. Step 530 may be a step of storing the position and type of the recognized object in the object zone and the position of the body part in the person's body zone.
또한, 단계 530은 기 설정된 일정시간 동안 검출되는 물체의 위치 및 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지하는 단계일 수 있다. In addition,
단계 540에서 저장되어 유지되는 시연자의 행동에 따른 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 행동의 시퀀스를 학습한다.The object region and the human body region according to the behavior of the performer stored and held at
단계 540은 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 감지 데이터의 매 프레임마다 행동의 시퀀스를 인식할 수 있다. Step 540 can recognize a sequence of actions for each frame of the sensing data based on the object region and the human body region and the object recognition result using the Recurrent Neural Network (RNN).
예를 들면, 단계 540은 기 설정된 일정시간 동안의 시연자의 행동의 특징들을 기반으로 행동 인식이 수행되어야 하므로, 단계 530에서 저장된 물체영역 및 사람의 신체영역과, 물체 인식 결과를 수신하여 행동의 시퀀스를 학습할 수 있다. For example, in
여기서, 상기 순환형 신경망(Recurrent Neural Network; RNN)은 신경망의 은닉 계층(hidden layer)에서 재귀적인 입력이 가능하도록 모델을 수정함으로써 순차적(sequential)으로 입력되거나 인자(feature)의 순서(sequence)가 입력으로 주어지는 데이터로부터 패턴을 효과적으로 학습 가능한, 시간적 측면이 고려된 신경망 모델일 수 있다. Here, the Recurrent Neural Network (RNN) may be sequentially input by modifying the model to allow recursive input in a hidden layer of a neural network, or a sequence of features may be input It may be a neural network model considering temporal aspects that can effectively learn patterns from data given as input.
이후, 단계 550에서 학습된 행동의 시퀀스에 따라 모방하도록 로봇을 제어한다. Thereafter, the robot is controlled to imitate according to the sequence of the actions learned in
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기광 매체(magnetooptical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (17)
상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 물체 인식부;
기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 정보 저장부; 및
상기 정보 저장부에 저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 행동 인식부
를 포함하는 로봇의 행동 모방 장치. A detector for detecting an object region and a human body region from sensed data according to a behavior of a performer sensed by the sensor;
An object recognition unit for extracting the detected object zone from the color information in the sensed data and recognizing the position and type of the object;
An object storage unit for storing the object recognition result and the object area detected for a predetermined period of time; And
And a behavior recognition unit for learning a sequence of behaviors based on the object recognition result and the object region stored in the information storage unit and held by the performer in accordance with the behavior of the object region and the human body region,
The behavior mimic device of the robot.
상기 학습된 행동의 시퀀스에 따라 모방하도록 제어하는 제어부
를 더 포함하는 로봇의 행동 모방 장치.The method according to claim 1,
And controls to imitate according to the learned action sequence
Further comprising: a behavior mimic device of the robot.
상기 검출부는
RGBDT(색상거리온도) 센서를 이용하여 상기 시연자의 행동에 대한 상기 감지 데이터를 획득하는 로봇의 행동 모방 장치. The method according to claim 1,
The detection unit
A behavior mimic device of a robot that uses the RGBDT (Color Distance Temperature) sensor to obtain the sensing data for the behavior of the demonstrator.
상기 검출부는
상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 물체 검출 모듈; 및
상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 신체 검출 모듈
을 포함하는 로봇의 행동 모방 장치. The method of claim 3,
The detection unit
An object detection module that detects the object area from the depth information in the sensing data; And
A body detection module for detecting the human body region from the color information, the depth information, and the temperature information in the sensed data,
The behavior mimic device of the robot including the robot.
상기 물체 검출 모듈은
상기 감지 데이터에 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 평면을 검출하고, 상기 검출된 평면의 하단 영역을 제거하여 상기 깊이정보를 기반으로 상기 물체영역을 검출하는 것을 특징으로 하는 로봇의 행동 모방 장치. 5. The method of claim 4,
The object detection module
Detecting a plane by applying a Random Access Consensus (RANSAC) algorithm to the sensed data, and removing the bottom region of the detected plane, and detecting the object region based on the depth information Imitation device.
상기 신체 검출 모듈은
스킨 컬러 감지 알고리즘(skin color detection algorithm)이 적용된 색상정보, 및 상기 온도정보를 이용하여 사람의 피부영역을 검출하고, 상기 깊이정보를 이용하여 상기 사람의 신체영역을 검출하는 것을 특징으로 하는 로봇의 행동 모방 장치. 5. The method of claim 4,
The body detection module
A skin color detection algorithm (skin color detection algorithm), and a skin area of a human using the temperature information, and detects the human body area using the depth information Behavior mimicry.
상기 물체 인식부는
심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식하는 것을 특징으로 하는 로봇의 행동 모방 장치. The method according to claim 1,
The object recognition unit
And the location and type of the object according to the color information are recognized using a deep neural network.
상기 정보 저장부는
상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장하는 것을 특징으로 하는 로봇의 행동 모방 장치.The method according to claim 1,
The information storage unit
And stores the position and type of the recognized object in the object zone and the position of the body part in the body zone of the person.
상기 정보 저장부는
기 설정된 일정시간 동안 검출되는 상기 인식된 물체의 위치, 및 상기 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지하는 것을 특징으로 하는 로봇의 행동 모방 장치. 9. The method of claim 8,
The information storage unit
And stores and maintains relative distances and relative velocities between the object and the object or between the object and the body based on the position of the recognized object and the position of the body part detected for a predetermined period of time Imitation device.
상기 행동 인식부는
기 설정된 일정시간 동안 시연되는 상기 시연자의 행동에 따른 상기 행동의 시퀀스를 학습하는 로봇의 행동 모방 장치. The method according to claim 1,
The behavior recognition unit
Wherein the robot learns the sequence of the behavior according to the behavior of the performer, which is demonstrated for a predetermined period of time.
상기 행동 인식부는
순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식하는 것을 특징으로 하는 로봇의 행동 모방 장치. 11. The method of claim 10,
The behavior recognition unit
Characterized by recognizing the sequence of behavior for each frame of the sensing data based on the object region and the human body region using the Recurrent Neural Network (RNN) and the object recognition result, Behavior mimic device.
센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 단계;
상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 단계;
기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 단계;
저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 단계; 및
상기 학습된 행동의 시퀀스에 따라 모방하도록 상기 로봇을 제어하는 단계
를 포함하는 로봇의 행동 모방 방법. A behavior mimicry method of a robot that imitates a behavior of a performer using a behavior mimic device of a robot,
Detecting an object region and a human body region from sensed data according to a behavior of a performer sensed by the sensor;
Extracting the detected object zone from the color information in the sensing data to recognize the location and type of the object;
Storing the object region and the body region of the human being detected for a predetermined period of time and storing the object recognition result;
Learning a sequence of behaviors based on the object region and the body region of the person according to the behavior of the performer stored and held, and the object recognition result; And
Controlling the robot to imitate according to the learned sequence of actions
Wherein the robot simulates the behavior of the robot.
상기 물체영역 및 사람의 신체영역을 검출하는 단계는
상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 단계; 및
상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 단계
를 포함하는 로봇의 행동 모방 방법.13. The method of claim 12,
The step of detecting the object region and the human body region
Detecting the object zone from the depth information in the sensing data; And
Detecting the human body region from the color information, the depth information, and the temperature information in the sensed data
Wherein the robot simulates the behavior of the robot.
상기 물체의 위치 및 종류를 인식하는 단계는
심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식하는 것을 특징으로 하는 로봇의 행동 모방 방법. 13. The method of claim 12,
Recognizing the location and type of the object
And recognizing a position and a type of the object according to the color information using a deep neural network.
상기 저장하여 유지하는 단계는
상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장하는 것을 특징으로 하는 로봇의 행동 모방 방법. 13. The method of claim 12,
Storing and maintaining
A position and a type of the recognized object in the object zone and a position of a body part in the body zone of the person are stored.
상기 행동의 시퀀스를 학습하는 단계는
순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식하는 것을 특징으로 하는 로봇의 행동 모방 방법. 13. The method of claim 12,
The step of learning the sequence of actions
Characterized by recognizing the sequence of behavior for each frame of the sensing data based on the object region and the human body region using the Recurrent Neural Network (RNN) and the object recognition result, How to mimic behavior.
17. A computer program stored in a computer-readable medium for performing the method of any one of claims 12 to 16.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170065111A KR102010129B1 (en) | 2017-05-26 | 2017-05-26 | Method and apparatus for emulating behavior of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170065111A KR102010129B1 (en) | 2017-05-26 | 2017-05-26 | Method and apparatus for emulating behavior of robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180129301A true KR20180129301A (en) | 2018-12-05 |
KR102010129B1 KR102010129B1 (en) | 2019-08-12 |
Family
ID=64744098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170065111A KR102010129B1 (en) | 2017-05-26 | 2017-05-26 | Method and apparatus for emulating behavior of robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102010129B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110293560A (en) * | 2019-01-12 | 2019-10-01 | 鲁班嫡系机器人(深圳)有限公司 | Robot behavior training, planing method, device, system, storage medium and equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090079655A (en) | 2008-01-18 | 2009-07-22 | 주식회사 케이티 | Method of executing robot behavior based on user behavior and its robot |
KR20100104272A (en) | 2009-03-17 | 2010-09-29 | 한국과학기술원 | Motion recognition system and method |
JP4552490B2 (en) * | 2004-04-08 | 2010-09-29 | ソニー株式会社 | Robot apparatus and emotion control method thereof |
KR20110075729A (en) * | 2009-12-28 | 2011-07-06 | 전자부품연구원 | A method for recognizing user based on different kind sensors and an apparatus thereof |
KR101240418B1 (en) * | 2012-03-12 | 2013-03-11 | (주)유인프라웨이 | Robot teaching system using real-time and non-contact type motion imitation system and method thereof |
US20150170002A1 (en) * | 2013-05-31 | 2015-06-18 | Google Inc. | Object detection using deep neural networks |
-
2017
- 2017-05-26 KR KR1020170065111A patent/KR102010129B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4552490B2 (en) * | 2004-04-08 | 2010-09-29 | ソニー株式会社 | Robot apparatus and emotion control method thereof |
KR20090079655A (en) | 2008-01-18 | 2009-07-22 | 주식회사 케이티 | Method of executing robot behavior based on user behavior and its robot |
KR20100104272A (en) | 2009-03-17 | 2010-09-29 | 한국과학기술원 | Motion recognition system and method |
KR20110075729A (en) * | 2009-12-28 | 2011-07-06 | 전자부품연구원 | A method for recognizing user based on different kind sensors and an apparatus thereof |
KR101240418B1 (en) * | 2012-03-12 | 2013-03-11 | (주)유인프라웨이 | Robot teaching system using real-time and non-contact type motion imitation system and method thereof |
US20150170002A1 (en) * | 2013-05-31 | 2015-06-18 | Google Inc. | Object detection using deep neural networks |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110293560A (en) * | 2019-01-12 | 2019-10-01 | 鲁班嫡系机器人(深圳)有限公司 | Robot behavior training, planing method, device, system, storage medium and equipment |
Also Published As
Publication number | Publication date |
---|---|
KR102010129B1 (en) | 2019-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111587408B (en) | Robot navigation and object tracking | |
CN108369643B (en) | Method and system for 3D hand skeleton tracking | |
KR20200021626A (en) | Method and device to train object detection model | |
JP5931215B2 (en) | Method and apparatus for estimating posture | |
CN109426782A (en) | Method for checking object and nerve network system for object detection | |
CN114026599A (en) | Reconstructing a three-dimensional scene from two-dimensional images | |
Jean et al. | Robust visual servo control of a mobile robot for object tracking using shape parameters | |
Copot et al. | Predictive control of nonlinear visual servoing systems using image moments | |
US20210181728A1 (en) | Learning device, control device, learning method, and recording medium | |
KR102046706B1 (en) | Techniques of performing neural network-based gesture recognition using wearable device | |
US11836944B2 (en) | Information processing apparatus, information processing method, and storage medium | |
Wu et al. | A morphable template framework for robot learning by demonstration: Integrating one-shot and incremental learning approaches | |
Gemerek et al. | Video-guided camera control for target tracking and following | |
El Zaatari et al. | iTP-LfD: Improved task parametrised learning from demonstration for adaptive path generation of cobot | |
Jais et al. | A review on gesture recognition using Kinect | |
US20150356780A1 (en) | Method for providing real time guidance to a user and a system thereof | |
Morales et al. | Image generation for efficient neural network training in autonomous drone racing | |
Estevez et al. | Enabling garment-agnostic laundry tasks for a robot household companion | |
KR102010129B1 (en) | Method and apparatus for emulating behavior of robot | |
Frank et al. | Using tablets in the vision-based control of a ball and beam test-bed | |
Akanyeti et al. | Robot training using system identification | |
NL2019877B1 (en) | Obstacle detection using horizon-based learning | |
Ghahramani et al. | 6d object pose estimation for robot programming by demonstration | |
Stouraitis et al. | Predator evasion by a robocrab | |
Crnokić et al. | Fusion of infrared sensors and camera for mobile robot navigation system-simulation scenario |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |