KR20180129301A - Method and apparatus for emulating behavior of robot - Google Patents

Method and apparatus for emulating behavior of robot Download PDF

Info

Publication number
KR20180129301A
KR20180129301A KR1020170065111A KR20170065111A KR20180129301A KR 20180129301 A KR20180129301 A KR 20180129301A KR 1020170065111 A KR1020170065111 A KR 1020170065111A KR 20170065111 A KR20170065111 A KR 20170065111A KR 20180129301 A KR20180129301 A KR 20180129301A
Authority
KR
South Korea
Prior art keywords
behavior
region
robot
information
sequence
Prior art date
Application number
KR1020170065111A
Other languages
Korean (ko)
Other versions
KR102010129B1 (en
Inventor
김준모
하정효
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170065111A priority Critical patent/KR102010129B1/en
Publication of KR20180129301A publication Critical patent/KR20180129301A/en
Application granted granted Critical
Publication of KR102010129B1 publication Critical patent/KR102010129B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a behavior emulating apparatus of a robot which recognizes and learns behavior of a demonstrator for the behavior to be emulated. According to the present invention, the behavior emulating apparatus of a robot is able to control a robot to recognize behavior of an object and a person based on the behavior of the demonstrator, and learn and emulate a sequence of the behavior of the demonstrator, in which the behavior is demonstrated for a predetermined time.

Description

로봇의 행동 모방 장치 및 그 방법{METHOD AND APPARATUS FOR EMULATING BEHAVIOR OF ROBOT}METHOD AND APPARATUS FOR EMULATING BEHAVIOR OF ROBOT < RTI ID = 0.0 >

본 발명은 로봇의 행동 모방 장치 및 그 방법에 관한 것으로, 보다 상세하게는 시연자의 행동을 인식하여 모방하는 로봇의 행동 모사 학습 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a behavior mimic device and a method thereof, and more particularly, to a behavior mimic learning system for a robot that recognizes and imitates a behavior of a performer.

일반적으로 로봇이 특정한 목적을 갖는 태스크(task)를 수행하기 위해서는 로봇이 해당 태스크를 이해해야 하며, 태스크의 순서를 기억할 수 있어야 한다.In general, in order for a robot to perform a task having a specific purpose, the robot must understand the task and be able to remember the order of the task.

다만, 지금까지는 사람이 로봇의 모든 동작 및 순서를 지정하여 입력하는 방식을 사용해왔다. 이러한 경우 로봇은 환경변화에 민감한 특성을 나타내며, 작은 환경변화에도 태스크 수행이 어렵다는 한계가 존재하였다.However, until now, a person has used a method of specifying and inputting all operations and sequences of robots. In this case, robots are sensitive to environmental changes, and there is a limit to the difficulty of performing tasks even in small environment changes.

종래의 행동인식 기술로서, Bobick, A. F외 1인이 발표한 논문 "The Recognition of Human Movement Using Temporal Templates", IEEE Transactions on pattern Analysis and Machine Intelligence, 2001"이 있다. 이 논문에서는 시간에 따라 정면에 있는 사람의 실루엣을 가중 누적한 MHI(Motion History Image)를 이용하여 행동을 인식하는 기술이 개시된다. 그러나, 이 기술은 고정된 한 대의 비디오카메라를 이용하기 때문에, 비디오카메라가 촬영한 영상에서의 시연자의 움직임 방향이 행동인식기가 학습한 방향과 일치하지 않으면 행동인식을 수행할 수 없는 문제점이 있다.As a conventional behavior recognition technology, there is Bobick, A. F. et al., "The Recognition of Human Movement Using Temporal Templates," IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001. In this paper, A technique of recognizing a behavior using MHI (Motion History Image) which accumulates a silhouette of a person on the front side is disclosed. However, since this technique uses one fixed video camera, There is a problem that the behavior recognition can not be performed if the direction of the performer's motion in the motion recognizer does not coincide with the direction learned by the behavior recognizer.

이러한 문제점을 해결하기 위한 종래의 행동인식 기술로서, Weinland, D.외 2인이 발표한 논문 "Free Viewpoint Action Recognition using Motion History Volumes", Computer vision and Image Understanding, 2006"이 있다. 이 논문에 개시된 기술은 4대의 카메라로부터 입력되는 영상을 정합하여 3차원 모델을 생성하기 때문에, 시점으로부터 자유로운 행동인식이 가능한 장점이 있다. 그러나, 4대의 카메라 데이터를 정합하는 과정은 복잡한 계산을 필요로 하므로 실시간 동작이 불가능한 문제점이 있다. 또한, 이 종래기술은 4대의 카메라가 모두 대상체(시연자)를 포착하여야만 행동인식이 가능하고, 한 대의 카메라라도 대상체를 포착하지 못한 상태에서는 행동인식을 수행할 수 없는 문제점이 있다. 또한, 행동인식을 하고자 하는 모든 공간마다 4대의 카메라를 설치해야 하므로 행동인식 시스템을 구축하는데 너무 많은 비용이 소요되는 문제점이 있다.As a conventional behavior recognition technology for solving such a problem, there is "Free Viewpoint Action Recognition using Motion History Volumes", Computer Vision and Image Understanding, 2006, published by Weinland, D. et al. However, since the process of matching the four camera data requires complicated calculation, it is necessary to perform a real-time operation This conventional technique has a problem that it is not possible to perform the behavior recognition only when all the four cameras capture the object (the performer), and even if one camera can not capture the object, the behavior recognition can not be performed In addition, since four cameras should be installed in every space where we want to recognize the behavior, There is a problem that too much cost is required to construct an expression system.

또한, 전술한 바와 같은 종래의 행동인식 기술은 시연자의 행동을 감지하기 위해 많은 수의 카메라를 필요로 한다는 단점이 존재하여 로봇에 적용하기 어렵다는 한계가 존재하였다.In addition, the above-described conventional behavior recognition technology has a disadvantage in that it requires a large number of cameras to detect the behavior of the performer, and thus it is difficult to apply it to robots.

이를 해결하기 위해 본 발명은 센서를 이용하여 시연자의 행동을 인식하고, 이를 로봇이 학습하여 행동으로 모방하는 행동 모사 학습 시스템을 제안한다. In order to solve this problem, the present invention proposes a behavior simulation learning system that recognizes the behavior of the performer using the sensor, and imitates the behavior of the robot by learning it.

한국공개특허 제10­2009­0079655호(2009.07.22 공개), "사용자 자극행동에 따른 로봇 반응행동 수행 방법 및 그 로봇"Korean Patent Publication No. 1020090079655 (published on July 22, 2009), " Robot Responsive Behavior Method & 한국공개특허 제10­2010­0104272호(2010.09.29 공개), "행동인식 시스템 및 방법"Korean Patent Publication No. 1020100104272 (published on Sep. 29, 2010), "Behavior recognition system and method"

본 발명의 목적은 시연자의 행동을 기반으로 물체영역 및 사람의 신체영역을 검출하여 행동을 인식하고, 기 설정된 일정시간 동안 시연된 시연자의 행동의 시퀀스를 학습할 수 있는 로봇의 행동 모방 장치 및 그 방법을 제공하고자 한다.An object of the present invention is to provide a behavior mimic device of a robot capable of detecting an object zone and a body zone of a person based on a behavior of a demonstrator to recognize a behavior and learning a sequence of behaviors of the demonstrator demonstrated for a predetermined period of time, Method.

또한, 본 발명의 목적은 학습된 시연자의 행동 시퀀스에 따라 행동을 모방하도록 로봇을 제어할 수 있는 로봇의 행동 모방 장치 및 그 방법을 제공하고자 한다. It is also an object of the present invention to provide a behavior mimic device and method of a robot capable of controlling a robot to imitate a behavior in accordance with a behavior sequence of a learned performer.

본 발명의 실시예에 따른 로봇의 행동 모방 장치는 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 검출부, 상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 물체 인식부, 기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 정보 저장부 및 상기 정보 저장부에 저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 행동 인식부를 포함한다.A behavior mimic device of a robot according to an embodiment of the present invention includes a detection unit that detects an object zone and a human body zone from sensed data according to a behavior of a viewer sensed by a sensor, An object storage unit for storing and holding the object recognition result, and an information storage unit for storing the object recognition result, and an information storage unit for storing the object recognition result, And a behavior recognition unit for learning a sequence of behaviors based on the object recognition result and the body region of the object region and the human body region according to the behavior of the performer stored and held in the body region.

또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 상기 학습된 행동의 시퀀스에 따라 모방하도록 제어하는 제어부를 더 포함할 수 있다.Further, the behavior mimic device of the robot according to the embodiment of the present invention may further include a controller for controlling the mimic according to the sequence of the learned behaviors.

상기 검출부는 RGB­D­T(색상­거리­온도) 센서를 이용하여 상기 시연자의 행동에 대한 상기 감지 데이터를 획득할 수 있다.The detection unit may use the RGBDT (color distance temperature) sensor to obtain the sensed data on the behavior of the demonstrator.

상기 검출부는 상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 물체 검출 모듈 및 상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 신체 검출 모듈을 포함할 수 있다.The detecting unit may include an object detecting module for detecting the object region from the depth information in the sensing data, and a body detecting module for detecting the human body region from the color information, the depth information, and the temperature information in the sensing data have.

상기 물체 검출 모듈은 상기 감지 데이터에 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 평면을 검출하고, 상기 검출된 평면의 하단 영역을 제거하여 상기 깊이정보를 기반으로 상기 물체영역을 검출할 수 있다.The object detection module may detect a plane by applying a Random Access Consensus (RANSAC) algorithm to the sensed data, and may detect the object region based on the depth information by removing a bottom region of the detected plane .

상기 신체 검출 모듈은 스킨 컬러 감지 알고리즘(skin color detection algorithm)이 적용된 색상정보, 및 상기 온도정보를 이용하여 사람의 피부영역을 검출하고, 상기 깊이정보를 이용하여 상기 사람의 신체영역을 검출할 수 있다.The body detection module detects a human skin region using color information to which a skin color detection algorithm is applied and the temperature information and detects the human body region using the depth information have.

상기 물체 인식부는 심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식할 수 있다.The object recognition unit may recognize the position and type of the object according to the color information using a deep neural network.

상기 정보 저장부는 상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장할 수 있다.The information storage unit may store the position and type of the recognized object in the object zone and the position of the body part in the body zone of the person.

상기 정보 저장부는 기 설정된 일정시간 동안 검출되는 상기 인식된 물체의 위치, 및 상기 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지할 수 있다.The information storage unit may store and maintain relative distances and relative velocities between the object and the object or between the object and the body on the basis of the position of the recognized object and the position of the body detected for a predetermined period of time.

상기 행동 인식부는 기 설정된 일정시간 동안 시연되는 상기 시연자의 행동에 따른 상기 행동의 시퀀스를 학습할 수 있다.The behavior recognition unit may learn the sequence of the behavior according to the behavior of the performer that is demonstrated for a predetermined period of time.

상기 행동 인식부는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식할 수 있다.The behavior recognition unit may recognize the sequence of the behavior for each frame of the sensing data based on the object region and the human body region using the Recurrent Neural Network (RNN) have.

본 발명의 실시예에 따른 로봇의 행동 모방 장치를 이용하여 시연자의 행동을 모방하는 로봇의 행동 모방 방법은 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 단계, 상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 단계, 기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 단계, 저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 단계 및 상기 학습된 행동의 시퀀스에 따라 모방하도록 상기 로봇을 제어하는 단계를 포함한다.A method of mimicking a behavior of a robot using a behavior mimic device of a robot according to an embodiment of the present invention includes detecting an object zone and a human body zone from sensed data according to a behavior of a player sensed by a sensor Extracting the detected object zone from the color information in the sensed data to recognize the position and type of the object, detecting the object zone and the body zone of the person detected for a predetermined period of time, Storing and maintaining the object region, the object region and the body region of the person according to the behavior of the performer stored and maintained, learning a sequence of behaviors based on the object recognition result, And controlling the robot to imitate the robot.

상기 물체영역 및 사람의 신체영역을 검출하는 단계는 상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 단계 및 상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 단계를 포함할 수 있다.Wherein the detecting of the object region and the human body region includes detecting the object region from the depth information in the sensed data and detecting the body region of the person from the color information, .

상기 물체의 위치 및 종류를 인식하는 단계는 심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식할 수 있다.The step of recognizing the position and the type of the object may recognize a position and a type of the object according to the color information using a deep neural network.

상기 저장하여 유지하는 단계는 상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장할 수 있다.The step of storing and storing may store the position and type of the recognized object in the object zone and the position of the body part in the body zone of the person.

상기 행동의 시퀀스를 학습하는 단계는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식할 수 있다. The step of learning the sequence of actions may comprise the steps of: using the Recurrent Neural Network (RNN) to determine the position of the object region and the body region of the person; and, based on the object recognition result, The sequence can be recognized.

본 발명의 실시예에 따르면, 시연자의 행동을 기반으로 물체영역 및 사람의 신체영역을 검출하여 행동을 인식하고, 기 설정된 일정시간 동안 시연된 시연자의 행동의 시퀀스를 학습할 수 있다.According to the embodiment of the present invention, it is possible to detect an object zone and a body zone of a person based on a behavior of a performer, recognize a behavior, and learn a sequence of behaviors of the demonstrator demonstrated for a predetermined period of time.

또한, 본 발명의 실시예에 따르면, 학습된 시연자의 행동 시퀀스에 따라 행동을 모방하도록 로봇을 제어할 수 있다. Further, according to the embodiment of the present invention, the robot can be controlled to imitate the behavior according to the action sequence of the learned performer.

도 1은 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 구성을 나타내는 블록도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 실행 알고리즘을 도시한 것이다.
도 3a 내지 도 3c는 본 발명의 실시예에 따른 물체 인식 과정에서의 사진 결과를 도시한 것이다.
도 4는 본 발명의 실시예에 따른 행동 인식 과정에서의 사진 결과 및 알고리즘 구조를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 로봇의 행동 모방 방법의 흐름도를 도시한 것이다.
1 is a block diagram showing a configuration of a behavior mimic device of a robot according to an embodiment of the present invention.
2 illustrates an execution algorithm of a behavior mimic device of a robot according to an embodiment of the present invention.
FIGS. 3A to 3C are photographs of an object recognition process according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a photograph result and an algorithm structure in a behavior recognition process according to an embodiment of the present invention.
5 is a flowchart illustrating a method of simulating behavior of a robot according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

도 1은 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 구성을 나타내는 블록도를 도시한 것이다.1 is a block diagram showing a configuration of a behavior mimic device of a robot according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 센서를 통해 센싱되는 시연자의 행동에 대한 감지 데이터를 이용하여 물체영역 및 사람의 신체영역과 물체의 위치 및 종류를 인식하고, 인식 결과로부터 행동의 시퀀스를 학습한다.1, a behavior mimic device of a robot according to an embodiment of the present invention recognizes an object zone, a body zone of a person, and a position and a type of an object using sensed data of a behavior of a viewer sensed through a sensor , And learn sequences of behaviors from recognition results.

이에 따른, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 검출부(110), 물체 인식부(120), 정보 저장부(130) 및 행동 인식부(140)를 포함한다.The behavior mimic device 100 of the robot according to the embodiment of the present invention includes a detection unit 110, an object recognition unit 120, an information storage unit 130, and a behavior recognition unit 140.

검출부(110)는 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출한다.The detection unit 110 detects the object region and the human body region from the sensed data according to the behavior of the performer sensed by the sensor.

예를 들면, 검출부(110)는 RGB­D­T(색상­거리­온도) 센서를 이용하여 시연자의 행동에 대한 감지 데이터를 획득할 수 있다. 여기서, 상기 RGBDT 센서는 색상정보를 센싱하는 컬러 센서, 깊이정보를 센싱하는 거리 센서, 및 온도정보를 센싱하는 온도 센서를 모두 포함하는 센서일 수 있다.For example, the detection unit 110 may acquire sensed data on the behavior of the performer using an RGBDT (color distance temperature) sensor. Here, the RGBDT sensor may include a color sensor for sensing color information, a distance sensor for sensing depth information, and a temperature sensor for sensing temperature information.

실시예에 따라서, 상기 컬러 센서는 RGB 센서일 수 있고, 상기 거리 센서는 레이저 센서, 거리 측정 센서, 초음파 센서, 및 위치 센서 중 적어도 어느 하나일 수 있으며, 상기 온도 센서는 비접촉 또는 접촉식 온도 센서일 수 있다. 다만, 본 발명은 전술한 센서의 종류에 한정하지 않으며, 시연자의 행동 또는 시연영상으로부터 색상정보, 깊이정보 및 온도정보를 센싱할 수 있는 센서(sensor)이면 가능하다. According to an embodiment, the color sensor may be an RGB sensor, and the distance sensor may be at least one of a laser sensor, a distance measuring sensor, an ultrasonic sensor, and a position sensor, Lt; / RTI > However, the present invention is not limited to the above-described types of sensors, but may be a sensor capable of sensing color information, depth information, and temperature information from the behavior or demonstration image of the performer.

또 다른 실시예에 따라서, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 카메라를 이용하여 획득되는 영상정보를 감지 데이터에 포함시킬 수도 있다. According to another embodiment, the behavior mimic device 100 of the robot according to the embodiment of the present invention may include the image information obtained by using the camera in the sensed data.

상기 감지 데이터는 RGBDT 센서로부터 센싱된 색상정보(RGB), 깊이정보(D) 및 온도정보(T)를 모두 포함할 수 있다. The sensing data may include color information (RGB), depth information (D), and temperature information (T) sensed by the RGBDT sensor.

실시예에 따라서, 상기 RGBDT 센서로부터 센싱된 색상정보, 깊이정보 및 온도정보는 캘리브레이션(Calibration)을 통해 동일한 좌표계를 나타낼 수 있다. According to the embodiment, the color information, depth information, and temperature information sensed from the RGBDT sensor may represent the same coordinate system through calibration.

검출부(110)는 감지 데이터 내 깊이정보로부터 물체영역을 검출하는 물체 검출 모듈(111) 및 감지데이터 내 색상정보, 깊이정보 및 온도정보로부터 사람의 신체영역을 검출하는 신체 검출 모듈(112)을 포함할 수 있다.The detection unit 110 includes an object detection module 111 that detects an object region from depth information in the sensed data, and a body detection module 112 that detects a human body region from color information, depth information, and temperature information in the sensed data can do.

물체 검출 모듈(111)은 감지 데이터에 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 평면을 검출하고, 검출된 평면의 하단 영역을 제거하여 깊이정보를 기반으로 물체영역을 검출할 수 있다. The object detection module 111 may detect a plane by applying a RANDAM SAmple Consensus (RANSAC) algorithm to the sensed data, and may detect the object area based on the depth information by removing the bottom area of the detected plane.

상기 란삭 알고리즘은 사용자가 정의한 모델과 가장 유사한 형태의 데이터 세트를 검출하는 방법으로, 바닥 제거를 위해서 평면이라는 모델을 사용할 수 있다. 예를 들면, 센싱되는 감지 데이터에서 임의의 3개의 점을 후보점으로 선정하고 이로서 생성되는 평면과 나머지 픽셀 간의 거리가 임계값 이하에 존재하는 인라이어의 개수를 획득하며, 이를 반복하여 가장 많은 개수의 인라이어를 가진 후보점을 바닥의 평면으로 인지할 수 있다. The residual algorithm is a method for detecting a data set most similar to a user-defined model, and can use a model called a plane for floor removal. For example, the arbitrary three points are selected as candidate points from the sensing data to be sensed, and the number of inliers in which the distance between the plane and the remaining pixels are less than the threshold value is obtained, The candidate point having the inlier of the floor can be recognized as the plane of the floor.

이를 이용하여 물체 검출 모듈(111)은 감지 데이터 내 깊이정보를 기반으로 란삭 알고리즘으로부터 물체영역을 검출할 수 있다. 여기서, 물체는 평면 상에 존재한다고 가정한다.The object detection module 111 can detect the object area from the rough algorithm based on the depth information in the sensed data. Here, it is assumed that an object exists on a plane.

실시예에 따라서, 물체 검출 모듈(111)은 란삭 알고리즘을 이용하여 감지 데이터에서 가장 우선적인(dominant) 평면을 획득할 수 있고, 평면 아래의 모든 영역을 제거한 후 감지 데이터 내 깊이정보를 기반으로 물체영역을 검출할 수 있다. 상기 검출된 영역은 바운딩 박스(bounding box) 및 오브젝트 영역(object area) 두 가지로 표현하여 출력할 수 있다. According to an embodiment, the object detection module 111 may obtain the dominant plane in the sensed data using the LAC algorithm, remove all areas under the plane, and then, based on the depth information in the sensed data, Area can be detected. The detected region can be expressed by two types of bounding box and object area and output.

신체 검출 모듈(112)은 스킨 컬러 감지 알고리즘(skin color detection algorithm)이 적용된 색상정보, 및 온도정보를 이용하여 사람의 피부영역을 검출하고, 깊이정보를 이용하여 사람의 신체영역을 검출할 수 있다. The body detection module 112 can detect a human skin region using color information and temperature information to which a skin color detection algorithm is applied and detect a human body region using depth information .

예를 들면, 신체 검출 모듈(112)은 색상정보를 이용한 스킨 컬러 감지 알고리즘과, 온도정보를 이용한 감지 데이터 내 발열되는 영역의 검출을 통해 획득되는 맵(map)을 융합하여 피부영역에 해당하는 부분을 검출할 수 있다. 이후, 신체 검출 모듈(112)은 깊이정보를 이용하여 피부영역 중 끝 포인트(end point)를 손의 위치로 정의하여 사람의 신체영역을 검출할 수 있다. For example, the body detection module 112 may integrate a skin color detection algorithm using color information and a map obtained through detection of an exothermic region in sensed data using temperature information, Can be detected. Then, the body detection module 112 can detect the body region of the person by defining the end point of the skin region as the position of the hand using the depth information.

실시예에 따라서, 신체 검출 모듈(112)은 사람의 신체영역으로 손 검출을 중점적으로 실행하나, 손 외에 머리, 다리 및 팔 등을 검출할 수 있으며, 피부영역 중 끝 포인트를 이용하여 다양한 사람의 신체영역을 검출할 수 있다. According to an embodiment, the body detection module 112 performs hand detection primarily on a human body area, but can detect head, leg, and arm in addition to a hand, The body region can be detected.

사람의 피부영역 및 신체영역을 검출하는 방법을 보다 상세히 설명하면, 신체 검출 모듈(112)은 스킨 컬러 감지 알고리즘을 이용하여 감지 데이터 내 색상정보로부터 복수의 픽셀들 각각을 분류할 수 있다. 이후, 신체 검출 모듈(112)은 시간의 흐름(over time)에 기반하여 센서에 의해 센싱되는 색상정보들의 시퀀스로 픽셀의 색상 값(color value)과, 시연자의 피부 톤(human skin tone)들의 미리 결정된 범위 내의 색상 값들을 갖는 영역(region)을 추적(track)하여 피부영역 또는 신체영역을 검출할 수 있다. Describing in more detail a method for detecting a human skin area and a body area, the body detection module 112 may classify each of the plurality of pixels from color information in the sensed data using a skin color sensing algorithm. The body detection module 112 then determines the color value of the pixel as a sequence of color information sensed by the sensor based on the over time and the color value of the skin tone A region having color values within a determined range can be tracked to detect a skin region or a body region.

실시예에 따라서, 상기 미리 결정된 범위는 일반적인 사람의 피부 톤을 감지할 수 있는 피부 톤에 근접한 색상 값들의 범위를 일컫을 수 있으며, 이는 사용자에 의해 기 설정될 수 있다. Depending on the embodiment, the predetermined range may refer to a range of color values close to the skin tone that can detect a general person's skin tone, which may be preset by the user.

물체 인식부(120)는 감지 데이터 내 색상정보에서 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식한다. The object recognizing unit 120 extracts the object region detected from the color information in the sensed data, and recognizes the position and type of the object.

보다 구체적으로 물체 인식부(120)는 심층 신경망(deep neural network)를 이용하여 색상정보에 따른 물체의 위치 및 종류를 인식할 수 있다. More specifically, the object recognition unit 120 can recognize the position and type of an object according to color information using a deep neural network.

예를 들면, 물체 인식부(120)는 검출부(110)로부터 검출되는 색상정보 및 물체영역에 기반한 바운딩 박스(bounding box)를 이용하여 물체의 위치 및 종류를 인식할 수 있으며, 물체인식의 성능 및 환경변화에 강인한 특성을 위해 심층 신경망을 이용하여 물체인식을 수행할 수 있다. 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집하여 학습을 수행할 수 있다. For example, the object recognizing unit 120 can recognize the position and the type of the object using the color information detected from the detecting unit 110 and a bounding box based on the object region, Object recognition can be performed using depth neural network for robust characteristics of environmental change. The in-depth neural network can perform learning by collecting learning data about an object of a task to be demonstrated and learned.

정보 저장부(130)는 기 설정된 일정시간 동안 검출되는 물체영역 및 사람의 신체영역과, 물체 인식 결과를 저장하여 유지한다. 상기 기 설정된 일정시간은 사용자에 의해 설정되는 시간으로 실시예에 따라서 초, 분 또는 시 단위로 설정될 수 있으므로 한정되지 않는다. The information storage unit 130 stores and maintains an object region, a human body region, and an object recognition result that are detected for a predetermined period of time. The preset predetermined time may be set by the user in units of seconds, minutes, or hours according to the embodiment, and is not limited.

정보 저장부(130)는 물체영역에서의 인식된 물체의 위치 및 종류와, 사람의 신체영역에서의 신체 일부의 위치를 저장할 수 있다.The information storage unit 130 may store the position and type of the recognized object in the object area and the position of the body part in the human body area.

보다 구체적으로, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 일정 시간 동안의 물체영역 및 신체영역의 변화를 기반으로 모사학습을 위한 행동인식을 수행해야 한다. 예를 들면, 시연자의 서로 다른 행동에 대해서도 감지 데이터에서는 동일한 영상 및 위치관계를 나타낼 수 있으므로, 보다 정확한 행동인식을 위해서는 시간적인 특징변화가 적용되어야 한다. More specifically, the behavior mimic device 100 of the robot according to the embodiment of the present invention should perform behavior recognition for simulated learning based on a change of an object zone and a body zone for a predetermined time. For example, since the same image and positional relationship can be represented in the sensed data even for different behaviors of the performer, temporal feature change should be applied for more accurate behavior recognition.

이를 위해 정보 저장부(130)는 기 설정된 일정시간 동안 검출부(110)로부터 검출되는 물체영역 및 신체영역의 검출 결과와, 물체 인식부(120)로부터 인식된 물체 인식 결과를 저장하고, 행동 인식부(140)로 저장되어 유지되는 정보를 제공하는 역할을 수행할 수 있다. To this end, the information storage unit 130 stores the detection results of the object region and the body region detected from the detection unit 110 and the object recognition results recognized by the object recognition unit 120 for a predetermined period of time, And may provide information to be stored and maintained in the storage unit 140.

또한, 정보 저장부(130)는 기 설정된 일정시간 동안 검출되는 물체의 위치 및 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지할 수 있다. The information storage unit 130 may store and maintain relative distances and relative velocities between the object and the object or between the object and the body on the basis of the position of the object and the position of the body detected for a predetermined period of time.

행동 인식부(140)는 정보 저장부(130)에 저장되어 유지되는 시연자의 행동에 따른 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 행동의 시퀀스를 학습한다. The behavior recognition unit 140 learns the sequence of behaviors based on the object region and the human body region according to the behavior of the performer stored and held in the information storage unit 130 and the object recognition result.

행동 인식부(140)는 기 설정된 일정시간 동안 시연되는 시연자의 행동에 따른 행동의 시퀀스를 학습할 수 있다.The behavior recognition unit 140 may learn a sequence of behaviors according to the behavior of the performer that is demonstrated for a predetermined period of time.

보다 구체적으로 행동 인식부(140)는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 감지 데이터의 매 프레임마다 행동의 시퀀스를 인식할 수 있다. 실시예에 따라서, 행동 인식부(140)는 정보 저장부(130)에 저장되어 유지되는 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 이용하여 행동의 시퀀스를 인식할 수도 있다. More specifically, the behavior recognition unit 140 recognizes a sequence of actions every frame of the sensed data based on the object region and the human body region using the Recurrent Neural Network (RNN) . According to an embodiment, the behavior recognition unit 140 may recognize a sequence of actions using an object and an object stored in and held in the information storage unit 130, or a relative distance and relative speed between the object and the body.

예를 들면, 행동 인식부(140)는 기 설정된 일정시간 동안의 시연자의 행동의 특징들을 기반으로 행동 인식이 수행되어야 하므로, 물체영역 및 사람의 신체영역과, 물체 인식 결과를 수신하여 행동의 시퀀스를 학습할 수 있다. For example, since the behavior recognition unit 140 must perform the behavior recognition based on the characteristics of the behavior of the performer for a predetermined period of time, the behavior recognition unit 140 receives the object region and the body region of the person, Can be learned.

행동 인식부(140)는 정보 저장부(130)로부터 수신된 정보를 기반으로 기 설정된 일정시간 동안 연속된 정보에 대한 인식 성능 및 환경변화에 강인한 특성을 위해 순환형 신경망을 이용하여 매 프레임에 대한 시연자의 행동을 인식할 수 있다. Based on the information received from the information storage unit 130, the behavior recognition unit 140 uses a cyclic-type neural network to recognize the continuous information for a predetermined period of time, The performer's behavior can be recognized.

여기서, 상기 순환형 신경망(Recurrent Neural Network; RNN)은 신경망의 은닉 계층(hidden layer)에서 재귀적인 입력이 가능하도록 모델을 수정함으로써 순차적(sequential)으로 입력되거나 인자(feature)의 순서(sequence)가 입력으로 주어지는 데이터로부터 패턴을 효과적으로 학습 가능한, 시간적 측면이 고려된 신경망 모델일 수 있다. Here, the Recurrent Neural Network (RNN) may be sequentially input by modifying the model to allow recursive input in a hidden layer of a neural network, or a sequence of features may be input It may be a neural network model considering temporal aspects that can effectively learn patterns from data given as input.

또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100)는 학습된 행동의 시퀀스에 따라 로봇을 모방하도록 제어하는 제어부(150)를 더 포함할 수 있다. In addition, the behavior mimic device 100 of the robot according to the embodiment of the present invention may further include a controller 150 that controls the robot to imitate the robot according to a sequence of learned behaviors.

실시예에 따라서, 제어부(150)는 본 발명의 실시예에 따른 로봇의 행동 모방 장치(100) 내 검출부(110), 물체 인식부(120), 정보 저장부(130) 및 행동 인식부(140)의 동작을 수행 및 제어할 수 있다. The control unit 150 may include a detection unit 110, an object recognition unit 120, an information storage unit 130, and a behavior recognition unit 140 in the behavior mimic device 100 of the robot according to the embodiment of the present invention. ) Can be performed and controlled.

도 2는 본 발명의 실시예에 따른 로봇의 행동 모방 장치의 실행 알고리즘을 도시한 것이다. 2 illustrates an execution algorithm of a behavior mimic device of a robot according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 RGBDT 센서(210)를 이용하여 시연자의 행동에 따른 색상정보(211), 깊이정보(212) 및 온도정보(213)를 포함하는 감지 데이터를 센싱할 수 있다.2, the behavior mimic device of the robot according to an embodiment of the present invention uses color information 211, depth information 212, and temperature information 213 according to the behavior of the performer using the RGBDT sensor 210 The sensing data can be sensed.

이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 깊이정보(212)로부터 물체영역을 검출(220)할 수 있다. 보다 구체적으로 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 RGBDT 센서(210)로부터 센싱된 감지 데이터의 평면을 검출하고, 검출된 평면의 하단 영역을 제거하여 깊이정보(212)를 기반으로 물체영역(ROI, region of interest) 및 물체 위치를 검출(221)할 수 있다. Then, the behavior mimic device of the robot according to the embodiment of the present invention can detect (220) the object zone from the depth information 212. [ More specifically, the behavior mimic device of the robot according to the embodiment of the present invention detects a plane of sensing data sensed from the RGBDT sensor 210 by applying a Random Access Consensus (RANSAC) algorithm, The region of interest (ROI) and the object position can be detected 221 based on the depth information 212.

또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 색상정보(211), 및 온도정보(213)를 이용하여 사람의 피부영역을 검출(222)할 수 있으며, 깊이정보(212)를 이용하여 신체영역을 검출(223)할 수 있다.In addition, the behavior mimic device of the robot according to the embodiment of the present invention can detect (222) a human skin area using color information 211 and temperature information 213, and use depth information 212 The body region can be detected (223).

보다 구체적으로 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 색상정보(211)를 이용한 스킨 컬러 감지 알고리즘(skin color detection algorithm)과, 온도정보(213)를 이용하여 발열되는 영역의 검출을 통해 획득되는 맵(map)을 융합하여 사람의 피부영역(222)에 해당하는 부분을 검출할 수 있다. 이후, 깊이정보(212)를 이용하여 피부영역 중 끝 포인트(end point)를 손 또는 신체 일부의 위치로 정의하여 사람의 신체영역을 검출(223)할 수 있다. More specifically, the behavior mimic device of a robot according to an embodiment of the present invention includes a skin color detection algorithm using color information 211 and a detection of an area to be heated using temperature information 213 The acquired map can be fused to detect a portion corresponding to the human skin area 222. [ Then, the human body region can be detected 223 by defining the end point of the skin region as the position of the hand or the body part using the depth information 212.

이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 심층 신경망(deep neural network)를 이용하여 색상정보(211)로부터 물체를 인식(230)하고, 이에 따른 물체의 위치 및 종류를 인식(231)할 수 있다. The behavior mimic device of the robot according to the embodiment of the present invention recognizes an object 230 from the color information 211 using a deep neural network and recognizes the position and type of the object 231 )can do.

예를 들면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 검출되는 색상정보(211), 물체영역(221) 및 신체영역(223)에 기반한 바운딩 박스(bounding box) 및 심층 신경망을 이용하여 물체인식을 수행(230)할 수 있으며, 이에 따른 물체의 위치 및 종류를 인식(231)할 수 있다. 여기서, 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집 및 학습할 수 있다. For example, a behavior mimic device of a robot according to an embodiment of the present invention may use a depthing network and a bounding box based on detected color information 211, object area 221 and body area 223 The object recognition can be performed 230, and the position and the type of the object can be recognized 231. Herein, the neural network can collect and learn learning data about objects of a task to be demonstrated and learned.

이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 물체영역(221), 물체영역에서의 인식된 물체의 위치 및 종류(231)와, 사람의 신체영역에서의 신체 일부(223)의 위치를 저장(240)할 수 있다. Thereafter, the behavior mimic device of the robot according to the embodiment of the present invention includes an object region 221, a position and kind of the recognized object in the object region 231, a position of the body portion 223 in the human body region (240).

또한, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 기 설정된 일정시간 동안 검출되는 인식된 물체의 위치(221) 및 신체 일부의 위치(223)에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장(241)하여 유지할 수 있다. In addition, the behavior mimic device of the robot according to the embodiment of the present invention is configured to measure the position and orientation of an object and an object based on a recognized object position 221 and a body part position 223, The relative distance and the relative velocity between the two points can be stored (241).

이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 기 설정된 일정시간 동안의 시연자의 행동의 특징들을 기반으로 행동 인식(250)이 수행되어야 하므로, 저장된 정보(241, 예를 들면, 물체영역(221) 및 사람의 신체영역(223)과 물체 인식 결과(231))를 수신하여 행동의 시퀀스(251)를 학습할 수 있다. Hereinafter, the behavior mimic device of the robot according to the embodiment of the present invention is configured such that the behavior recognition 250 is performed based on the characteristics of the behavior of the performer for a preset predetermined time, so that the stored information 241, (Human body area 223 and object recognition result 231) and learn the sequence 251 of actions.

예를 들면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 저장된 정보(241)를 기반으로, 기 설정된 일정시간 동안의 연속된 정보에 대한 인식 성능 및 환경변화에 강인한 특성을 위해 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 매 프레임에 대한 시연자의 행동 시퀀스(251)를 인식할 수 있다. For example, the behavior mimic device of the robot according to the embodiment of the present invention may be configured to perform a behavioral simulation based on the stored information 241, a recognition performance of continuous information for a predetermined period of time, (RNN) to recognize the behavior sequence 251 of the performer for each frame.

도 3a 내지 도 3c는 본 발명의 실시예에 따른 물체 인식 과정에서의 사진 결과를 도시한 것이다.FIGS. 3A to 3C are photographs of an object recognition process according to an embodiment of the present invention.

보다 구체적으로, 도 3a는 본 발명의 실시예에 따른 RGBDT 센서로부터 센싱된 감지 데이터의 사진 결과를 도시한 것이고, 도 3b는 본 발명의 실시예에 따른 감지 데이터의 배경을 제거한 사진 결과를 도시한 것이며, 도 3c는 물체 인식에 대한 사진 결과를 도시한 것이다.More specifically, FIG. 3A shows a photograph result of sensing data sensed from an RGBDT sensor according to an embodiment of the present invention, FIG. 3B shows a photograph result of eliminating the background of sensed data according to an embodiment of the present invention And Fig. 3C shows a photograph result of object recognition.

도 3a를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 RGBDT 센서를 이용하여 색상정보, 깊이정보 및 온도정보를 포함하는 감지 데이터를 획득할 수 있다.Referring to FIG. 3A, a behavior mimic device of a robot according to an embodiment of the present invention can acquire sensing data including color information, depth information, and temperature information using an RGBDT sensor.

도 3b를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 도 3a에서 획득된 감지 데이터에 배경을 제거할 수 있다.Referring to FIG. 3B, the behavior mimic device of the robot according to the embodiment of the present invention can remove the background to the sensed data obtained in FIG. 3A.

이후, 도 3c를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 검출되는 색상정보 및 물체영역에 기반한 복수의 바운딩 박스(빨간 네모)를 이용하여 물체의 위치 및 종류를 인식할 수 있으며, 물체인식의 성능 및 환경변화에 강인한 특성을 위해 심층 신경망(deep neural network)을 이용하여 물체인식을 수행할 수 있다. 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집하여 학습을 수행할 수 있다.3C, the behavior mimic device of the robot according to an embodiment of the present invention can recognize the position and type of an object using a plurality of bounding boxes (red squares) based on detected color information and object zones Object recognition can be performed using a deep neural network for robustness to object recognition performance and environmental changes. The in-depth neural network can perform learning by collecting learning data about an object of a task to be demonstrated and learned.

이에 따라서, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 도 3a 내지 도 3c에서와 같이 센싱되는 감지 데이터를 이용하여 물체의 위치 및 종류를 인식할 수 있다. Accordingly, the behavior mimic device of the robot according to the embodiment of the present invention can recognize the position and the type of the object using the sensed data as shown in FIGS. 3A to 3C.

도 4는 본 발명의 실시예에 따른 행동 인식 과정에서의 사진 결과 및 알고리즘 구조를 도시한 것이다. FIG. 4 is a diagram illustrating a photograph result and an algorithm structure in a behavior recognition process according to an embodiment of the present invention.

보다 구체적으로, 도 4(a)는 본 발명의 실시예에 따라 검출되는 물체영역 및 신체영역의 사진 결과를 도시한 것이고, 도 4(b)는 본 발명의 실시예에 따른 행동 인식을 위한 순환형 신경망(Recurrent Neural Network; RNN) 알고리즘의 구조를 도시한 것이다.More specifically, Fig. 4 (a) shows photograph results of an object zone and a bodily zone detected according to an embodiment of the present invention, and Fig. 4 (b) (RNN) algorithm of the present invention.

도 4(a)를 참조하면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출할 수 있다.Referring to FIG. 4A, a behavior mimic device of a robot according to an embodiment of the present invention can detect an object zone and a human body zone from sensed data according to a behavior of a performer.

예를 들면, 도 4(a)에서 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 시연자의 손(Hand)을 신체영역으로 감지할 수 있다. 또한, 시연자의 손에 위치하는 컵(GC)을 물체영역으로 감지할 수 있으며, 탁상에 위치하는 그릇(Bowl)을 물체영역으로 감지할 수 있다. For example, in FIG. 4 (a), a behavior mimic device of a robot according to an embodiment of the present invention can sense a hand of a performer as a body area. In addition, the cup GC located in the hand of the performer can be detected as an object region, and a bowl located on a tabletop can be detected as an object region.

이후, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 기 설정된 일정시간 동안의 검출되는 순차적인(Sequential) 물체영역 및 신체영역의 정보를 3차원의 위치정보에 기반하여 저장할 수 있다.Hereinafter, the behavior mimic device of the robot according to the embodiment of the present invention may store the information of the sequential object region and the body region detected for a preset predetermined time based on the three-dimensional position information.

이후, 도 4(b)에서 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 행동인식에 사용되는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 시연자의 행동의 시퀀스를 학습하여 행동을 인식할 수 있다.4 (b), the behavior mimic device of the robot according to the embodiment of the present invention learns a sequence of behaviors of a performer using a recurrent neural network (RNN) can do.

예를 들면, 본 발명의 실시예에 따른 로봇의 행동 모방 장치는 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 저장된 정보의 물체영역 및 사람의 신체영역과, 물체 인식 결과(Hand, Bowl, GC 등)를 기반으로 감지 데이터의 매 프레임마다 행동의 시퀀스를 인식하여 시연자의 행동을 인식할 수 있다. For example, the behavior mimic device of a robot according to an embodiment of the present invention may include an object region and a human body region of information stored using a Recurrent Neural Network (RNN), object recognition results (Hand, Bowl, GC, etc.), it is possible to recognize the behavior of the performer by recognizing the sequence of action every frame of the sensed data.

보다 구체적으로 도 4(b)를 참조하면, 상기 순환형 신경망 모델(Recurrent Neural Network; RNN)은 신경망의 은닉 계층(hidden layer)에서 재귀적인 입력이 가능하도록 모델을 수정함으로써 순차적(sequential)으로 입력되거나 인자(feature)의 순서(sequence)가 입력으로 주어지는 데이터(1, 2, 3, …, n­2, n­1, n)로부터 패턴을 효과적으로 학습 가능한, 시간적 측면이 고려된 신경망 구조를 나타낼 수 있다. More specifically, referring to FIG. 4B, the Recurrent Neural Network (RNN) can be modeled as a sequential input by modifying the model so that recursive input is possible in a hidden layer of a neural network Or a neural network structure considering temporal aspects that can effectively learn patterns from data (1, 2, 3, ..., n2, n1, n) given as inputs of sequences of features.

도 5는 본 발명의 실시예에 따른 로봇의 행동 모방 방법의 흐름도를 도시한 것이다.5 is a flowchart illustrating a method of simulating behavior of a robot according to an embodiment of the present invention.

도 5에 도시된 방법은 도 1에 도시된 본 발명의 실시예에 따른 시연자의 행동을 모방하는 로봇의 행동 모방 장치에 의해 수행될 수 있다.The method shown in Fig. 5 can be performed by a behavior mimic device of a robot that imitates a behavior of a demonstrator according to an embodiment of the present invention shown in Fig.

도 5를 참조하면, 단계 510에서 센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출한다.Referring to FIG. 5, in step 510, an object region and a human body region are detected from sensed data according to a behavior of a viewer sensed by a sensor.

예를 들면, 단계 510은 감지 데이터 내 깊이정보로부터 물체영역을 검출하는 단계(미도시) 및 감지 데이터 내 색상정보, 깊이정보 및 온도정보로부터 사람의 신체영역을 검출하는 단계(미도시)를 포함하는 단계일 수 있다. For example, step 510 includes a step of detecting an object zone from depth information in the sensed data (not shown) and a step of detecting a human body zone from color information, depth information and temperature information in the sensed data Lt; / RTI >

실시예에 따라서, 단계 510은 RGB­D­T(색상­거리­온도) 센서를 이용하여 시연자의 행동에 대한 감지 데이터를 획득할 수 있으며, 상기 RGBDT 센서는 색상정보를 센싱하는 컬러 센서, 깊이정보를 센싱하는 거리 센서, 및 온도정보를 센싱하는 온도 센서를 모두 포함하는 센서(sensor)일 수 있다.According to an embodiment, step 510 may utilize an RGBDT (color distance temperature) sensor to obtain sensed data on the behavior of the performer, wherein the RGBDT sensor includes a color sensor for sensing color information, a distance sensor , And a temperature sensor that senses temperature information.

단계 520에서 감지 데이터 내 색상정보에서 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식한다.In step 520, the object region detected in the color information in the sensed data is extracted to recognize the position and type of the object.

단계 520은 심층 신경망(deep neural network)를 이용하여 색상정보에 따른 물체의 위치 및 종류를 인식하는 단계일 수 있다. Step 520 may be a step of recognizing the position and type of an object according to color information using a deep neural network.

예를 들면, 단계 520은 검출되는 색상정보 및 물체영역에 기반한 바운딩 박스(bounding box)를 이용하여 물체의 위치 및 종류를 인식할 수 있으며, 물체인식의 성능 및 환경변화에 강인한 특성을 위해 심층 신경망을 이용하여 물체인식을 수행하는 단계일 수 있다. 여기서, 상기 심층 신경망은 시연 및 학습할 태스크(task)의 물체에 대한 학습데이터를 수집하여 학습을 수행하는 모델(또는 알고리즘)일 수 있다. For example, in step 520, the location and type of an object can be recognized using the color information and the bounding box based on the object area. For the characteristics that are robust to object recognition performance and environment change, The object recognition may be performed using the object recognition method. Here, the depth neural network may be a model (or algorithm) for performing learning by collecting learning data on objects of a task to be demonstrated and learned.

단계 530에서 기 설정된 일정시간 동안 검출되는 물체영역 및 사람의 신체영역과, 물체 인식 결과를 저장하여 유지한다.In step 530, the object region and the human body region detected for a predetermined period of time and the object recognition result are stored and retained.

단계 530은 물체영역에서의 인식된 물체의 위치 및 종류와, 사람의 신체영역에서의 신체 일부의 위치를 저장하는 단계일 수 있다. Step 530 may be a step of storing the position and type of the recognized object in the object zone and the position of the body part in the person's body zone.

또한, 단계 530은 기 설정된 일정시간 동안 검출되는 물체의 위치 및 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지하는 단계일 수 있다. In addition, step 530 may be a step of storing and maintaining relative distances and relative velocities between the object and the object or between the object and the body based on the position of the object and the position of the part of the body detected for a predetermined period of time.

단계 540에서 저장되어 유지되는 시연자의 행동에 따른 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 행동의 시퀀스를 학습한다.The object region and the human body region according to the behavior of the performer stored and held at Step 540 and the sequence of the action based on the object recognition result are learned.

단계 540은 순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 물체영역 및 사람의 신체영역과, 물체 인식 결과를 기반으로 감지 데이터의 매 프레임마다 행동의 시퀀스를 인식할 수 있다. Step 540 can recognize a sequence of actions for each frame of the sensing data based on the object region and the human body region and the object recognition result using the Recurrent Neural Network (RNN).

예를 들면, 단계 540은 기 설정된 일정시간 동안의 시연자의 행동의 특징들을 기반으로 행동 인식이 수행되어야 하므로, 단계 530에서 저장된 물체영역 및 사람의 신체영역과, 물체 인식 결과를 수신하여 행동의 시퀀스를 학습할 수 있다. For example, in step 540, since the behavior recognition should be performed based on the characteristics of the behavior of the performer for a predetermined period of time, the object area and the human body area stored in step 530 and the object recognition result are received, Can be learned.

여기서, 상기 순환형 신경망(Recurrent Neural Network; RNN)은 신경망의 은닉 계층(hidden layer)에서 재귀적인 입력이 가능하도록 모델을 수정함으로써 순차적(sequential)으로 입력되거나 인자(feature)의 순서(sequence)가 입력으로 주어지는 데이터로부터 패턴을 효과적으로 학습 가능한, 시간적 측면이 고려된 신경망 모델일 수 있다. Here, the Recurrent Neural Network (RNN) may be sequentially input by modifying the model to allow recursive input in a hidden layer of a neural network, or a sequence of features may be input It may be a neural network model considering temporal aspects that can effectively learn patterns from data given as input.

이후, 단계 550에서 학습된 행동의 시퀀스에 따라 모방하도록 로봇을 제어한다. Thereafter, the robot is controlled to imitate according to the sequence of the actions learned in step 550. [

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD­ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기­광 매체(magneto­optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 검출부;
상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 물체 인식부;
기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 정보 저장부; 및
상기 정보 저장부에 저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 행동 인식부
를 포함하는 로봇의 행동 모방 장치.
A detector for detecting an object region and a human body region from sensed data according to a behavior of a performer sensed by the sensor;
An object recognition unit for extracting the detected object zone from the color information in the sensed data and recognizing the position and type of the object;
An object storage unit for storing the object recognition result and the object area detected for a predetermined period of time; And
And a behavior recognition unit for learning a sequence of behaviors based on the object recognition result and the object region stored in the information storage unit and held by the performer in accordance with the behavior of the object region and the human body region,
The behavior mimic device of the robot.
제1항에 있어서,
상기 학습된 행동의 시퀀스에 따라 모방하도록 제어하는 제어부
를 더 포함하는 로봇의 행동 모방 장치.
The method according to claim 1,
And controls to imitate according to the learned action sequence
Further comprising: a behavior mimic device of the robot.
제1항에 있어서,
상기 검출부는
RGB­D­T(색상­거리­온도) 센서를 이용하여 상기 시연자의 행동에 대한 상기 감지 데이터를 획득하는 로봇의 행동 모방 장치.
The method according to claim 1,
The detection unit
A behavior mimic device of a robot that uses the RGBDT (Color Distance Temperature) sensor to obtain the sensing data for the behavior of the demonstrator.
제3항에 있어서,
상기 검출부는
상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 물체 검출 모듈; 및
상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 신체 검출 모듈
을 포함하는 로봇의 행동 모방 장치.
The method of claim 3,
The detection unit
An object detection module that detects the object area from the depth information in the sensing data; And
A body detection module for detecting the human body region from the color information, the depth information, and the temperature information in the sensed data,
The behavior mimic device of the robot including the robot.
제4항에 있어서,
상기 물체 검출 모듈은
상기 감지 데이터에 란삭(RANdom SAmple Consensus; RANSAC) 알고리즘을 적용하여 평면을 검출하고, 상기 검출된 평면의 하단 영역을 제거하여 상기 깊이정보를 기반으로 상기 물체영역을 검출하는 것을 특징으로 하는 로봇의 행동 모방 장치.
5. The method of claim 4,
The object detection module
Detecting a plane by applying a Random Access Consensus (RANSAC) algorithm to the sensed data, and removing the bottom region of the detected plane, and detecting the object region based on the depth information Imitation device.
제4항에 있어서,
상기 신체 검출 모듈은
스킨 컬러 감지 알고리즘(skin color detection algorithm)이 적용된 색상정보, 및 상기 온도정보를 이용하여 사람의 피부영역을 검출하고, 상기 깊이정보를 이용하여 상기 사람의 신체영역을 검출하는 것을 특징으로 하는 로봇의 행동 모방 장치.
5. The method of claim 4,
The body detection module
A skin color detection algorithm (skin color detection algorithm), and a skin area of a human using the temperature information, and detects the human body area using the depth information Behavior mimicry.
제1항에 있어서,
상기 물체 인식부는
심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식하는 것을 특징으로 하는 로봇의 행동 모방 장치.
The method according to claim 1,
The object recognition unit
And the location and type of the object according to the color information are recognized using a deep neural network.
제1항에 있어서,
상기 정보 저장부는
상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장하는 것을 특징으로 하는 로봇의 행동 모방 장치.
The method according to claim 1,
The information storage unit
And stores the position and type of the recognized object in the object zone and the position of the body part in the body zone of the person.
제8항에 있어서,
상기 정보 저장부는
기 설정된 일정시간 동안 검출되는 상기 인식된 물체의 위치, 및 상기 신체 일부의 위치에 기초하여 물체와 물체 간, 또는 물체와 신체 간의 상대적 거리 및 상대적 속도를 저장하여 유지하는 것을 특징으로 하는 로봇의 행동 모방 장치.
9. The method of claim 8,
The information storage unit
And stores and maintains relative distances and relative velocities between the object and the object or between the object and the body based on the position of the recognized object and the position of the body part detected for a predetermined period of time Imitation device.
제1항에 있어서,
상기 행동 인식부는
기 설정된 일정시간 동안 시연되는 상기 시연자의 행동에 따른 상기 행동의 시퀀스를 학습하는 로봇의 행동 모방 장치.
The method according to claim 1,
The behavior recognition unit
Wherein the robot learns the sequence of the behavior according to the behavior of the performer, which is demonstrated for a predetermined period of time.
제10항에 있어서,
상기 행동 인식부는
순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식하는 것을 특징으로 하는 로봇의 행동 모방 장치.
11. The method of claim 10,
The behavior recognition unit
Characterized by recognizing the sequence of behavior for each frame of the sensing data based on the object region and the human body region using the Recurrent Neural Network (RNN) and the object recognition result, Behavior mimic device.
로봇의 행동 모방 장치를 이용하여 시연자의 행동을 모방하는 로봇의 행동 모방 방법에 있어서,
센서에 의해 센싱되는 시연자의 행동에 따른 감지 데이터로부터 물체영역 및 사람의 신체영역을 검출하는 단계;
상기 감지 데이터 내 색상정보에서 상기 검출된 물체영역을 추출하여 물체의 위치 및 종류를 인식하는 단계;
기 설정된 일정시간 동안 검출되는 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 저장하여 유지하는 단계;
저장되어 유지되는 상기 시연자의 행동에 따른 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 행동의 시퀀스를 학습하는 단계; 및
상기 학습된 행동의 시퀀스에 따라 모방하도록 상기 로봇을 제어하는 단계
를 포함하는 로봇의 행동 모방 방법.
A behavior mimicry method of a robot that imitates a behavior of a performer using a behavior mimic device of a robot,
Detecting an object region and a human body region from sensed data according to a behavior of a performer sensed by the sensor;
Extracting the detected object zone from the color information in the sensing data to recognize the location and type of the object;
Storing the object region and the body region of the human being detected for a predetermined period of time and storing the object recognition result;
Learning a sequence of behaviors based on the object region and the body region of the person according to the behavior of the performer stored and held, and the object recognition result; And
Controlling the robot to imitate according to the learned sequence of actions
Wherein the robot simulates the behavior of the robot.
제12항에 있어서,
상기 물체영역 및 사람의 신체영역을 검출하는 단계는
상기 감지 데이터 내 깊이정보로부터 상기 물체영역을 검출하는 단계; 및
상기 감지 데이터 내 상기 색상정보, 상기 깊이정보 및 온도정보로부터 상기 사람의 신체영역을 검출하는 단계
를 포함하는 로봇의 행동 모방 방법.
13. The method of claim 12,
The step of detecting the object region and the human body region
Detecting the object zone from the depth information in the sensing data; And
Detecting the human body region from the color information, the depth information, and the temperature information in the sensed data
Wherein the robot simulates the behavior of the robot.
제12항에 있어서,
상기 물체의 위치 및 종류를 인식하는 단계는
심층 신경망(deep neural network)를 이용하여 상기 색상정보에 따른 상기 물체의 위치 및 종류를 인식하는 것을 특징으로 하는 로봇의 행동 모방 방법.
13. The method of claim 12,
Recognizing the location and type of the object
And recognizing a position and a type of the object according to the color information using a deep neural network.
제12항에 있어서,
상기 저장하여 유지하는 단계는
상기 물체영역에서의 상기 인식된 물체의 위치 및 종류와, 상기 사람의 신체영역에서의 신체 일부의 위치를 저장하는 것을 특징으로 하는 로봇의 행동 모방 방법.
13. The method of claim 12,
Storing and maintaining
A position and a type of the recognized object in the object zone and a position of a body part in the body zone of the person are stored.
제12항에 있어서,
상기 행동의 시퀀스를 학습하는 단계는
순환형 신경망(Recurrent Neural Network; RNN)을 이용하여 상기 물체영역 및 상기 사람의 신체영역과, 상기 물체 인식 결과를 기반으로 상기 감지 데이터의 매 프레임마다 상기 행동의 시퀀스를 인식하는 것을 특징으로 하는 로봇의 행동 모방 방법.
13. The method of claim 12,
The step of learning the sequence of actions
Characterized by recognizing the sequence of behavior for each frame of the sensing data based on the object region and the human body region using the Recurrent Neural Network (RNN) and the object recognition result, How to mimic behavior.
제12항 내지 제16항 중 어느 한 항의 방법을 수행하기 위하여 컴퓨터로 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
17. A computer program stored in a computer-readable medium for performing the method of any one of claims 12 to 16.
KR1020170065111A 2017-05-26 2017-05-26 Method and apparatus for emulating behavior of robot KR102010129B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170065111A KR102010129B1 (en) 2017-05-26 2017-05-26 Method and apparatus for emulating behavior of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170065111A KR102010129B1 (en) 2017-05-26 2017-05-26 Method and apparatus for emulating behavior of robot

Publications (2)

Publication Number Publication Date
KR20180129301A true KR20180129301A (en) 2018-12-05
KR102010129B1 KR102010129B1 (en) 2019-08-12

Family

ID=64744098

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170065111A KR102010129B1 (en) 2017-05-26 2017-05-26 Method and apparatus for emulating behavior of robot

Country Status (1)

Country Link
KR (1) KR102010129B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110293560A (en) * 2019-01-12 2019-10-01 鲁班嫡系机器人(深圳)有限公司 Robot behavior training, planing method, device, system, storage medium and equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090079655A (en) 2008-01-18 2009-07-22 주식회사 케이티 Method of executing robot behavior based on user behavior and its robot
KR20100104272A (en) 2009-03-17 2010-09-29 한국과학기술원 Motion recognition system and method
JP4552490B2 (en) * 2004-04-08 2010-09-29 ソニー株式会社 Robot apparatus and emotion control method thereof
KR20110075729A (en) * 2009-12-28 2011-07-06 전자부품연구원 A method for recognizing user based on different kind sensors and an apparatus thereof
KR101240418B1 (en) * 2012-03-12 2013-03-11 (주)유인프라웨이 Robot teaching system using real-time and non-contact type motion imitation system and method thereof
US20150170002A1 (en) * 2013-05-31 2015-06-18 Google Inc. Object detection using deep neural networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4552490B2 (en) * 2004-04-08 2010-09-29 ソニー株式会社 Robot apparatus and emotion control method thereof
KR20090079655A (en) 2008-01-18 2009-07-22 주식회사 케이티 Method of executing robot behavior based on user behavior and its robot
KR20100104272A (en) 2009-03-17 2010-09-29 한국과학기술원 Motion recognition system and method
KR20110075729A (en) * 2009-12-28 2011-07-06 전자부품연구원 A method for recognizing user based on different kind sensors and an apparatus thereof
KR101240418B1 (en) * 2012-03-12 2013-03-11 (주)유인프라웨이 Robot teaching system using real-time and non-contact type motion imitation system and method thereof
US20150170002A1 (en) * 2013-05-31 2015-06-18 Google Inc. Object detection using deep neural networks

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110293560A (en) * 2019-01-12 2019-10-01 鲁班嫡系机器人(深圳)有限公司 Robot behavior training, planing method, device, system, storage medium and equipment

Also Published As

Publication number Publication date
KR102010129B1 (en) 2019-08-12

Similar Documents

Publication Publication Date Title
CN111587408B (en) Robot navigation and object tracking
CN108369643B (en) Method and system for 3D hand skeleton tracking
KR20200021626A (en) Method and device to train object detection model
JP5931215B2 (en) Method and apparatus for estimating posture
CN109426782A (en) Method for checking object and nerve network system for object detection
CN114026599A (en) Reconstructing a three-dimensional scene from two-dimensional images
Jean et al. Robust visual servo control of a mobile robot for object tracking using shape parameters
Copot et al. Predictive control of nonlinear visual servoing systems using image moments
US20210181728A1 (en) Learning device, control device, learning method, and recording medium
KR102046706B1 (en) Techniques of performing neural network-based gesture recognition using wearable device
US11836944B2 (en) Information processing apparatus, information processing method, and storage medium
Wu et al. A morphable template framework for robot learning by demonstration: Integrating one-shot and incremental learning approaches
Gemerek et al. Video-guided camera control for target tracking and following
El Zaatari et al. iTP-LfD: Improved task parametrised learning from demonstration for adaptive path generation of cobot
Jais et al. A review on gesture recognition using Kinect
US20150356780A1 (en) Method for providing real time guidance to a user and a system thereof
Morales et al. Image generation for efficient neural network training in autonomous drone racing
Estevez et al. Enabling garment-agnostic laundry tasks for a robot household companion
KR102010129B1 (en) Method and apparatus for emulating behavior of robot
Frank et al. Using tablets in the vision-based control of a ball and beam test-bed
Akanyeti et al. Robot training using system identification
NL2019877B1 (en) Obstacle detection using horizon-based learning
Ghahramani et al. 6d object pose estimation for robot programming by demonstration
Stouraitis et al. Predator evasion by a robocrab
Crnokić et al. Fusion of infrared sensors and camera for mobile robot navigation system-simulation scenario

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant