KR100862190B1 - Apparatus and Method for detecting pose of robot - Google Patents

Apparatus and Method for detecting pose of robot Download PDF

Info

Publication number
KR100862190B1
KR100862190B1 KR1020060119903A KR20060119903A KR100862190B1 KR 100862190 B1 KR100862190 B1 KR 100862190B1 KR 1020060119903 A KR1020060119903 A KR 1020060119903A KR 20060119903 A KR20060119903 A KR 20060119903A KR 100862190 B1 KR100862190 B1 KR 100862190B1
Authority
KR
South Korea
Prior art keywords
posture
robot
motor
contact
value
Prior art date
Application number
KR1020060119903A
Other languages
Korean (ko)
Other versions
KR20080049396A (en
Inventor
김재홍
강상승
손주찬
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060119903A priority Critical patent/KR100862190B1/en
Priority to PCT/KR2007/005799 priority patent/WO2008066273A1/en
Priority to JP2009539177A priority patent/JP2010510895A/en
Publication of KR20080049396A publication Critical patent/KR20080049396A/en
Application granted granted Critical
Publication of KR100862190B1 publication Critical patent/KR100862190B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Abstract

본 발명은 모터와 접촉센서를 통해 검출된 값을 이용하여 로봇의 자세를 검출할 수 있는 로봇의 자세 검출 장치 및 그 방법에 관한 것이다. 본 발명의 로봇 자세 검출 장치는, 로봇에 부착되어 상기 로봇의 움직임을 검출하는 복수의 모터, 상기 로봇에 부착되어 상기 로봇에 대한 사용자 및 사물의 접촉을 구별하는 복수의 접촉센서, 및 상기 모터 및 접촉센서를 통해 검출되는 정보에 기초하여 상기 로봇의 자세를 검출하는 로봇제어부를 포함하며, 이에 의해, 보다 다양하게 로봇의 자세를 검출할 수 있고 사람과 접촉을 하면서 상호작용을 하는 로봇의 자세도 파악이 가능하다. The present invention relates to a robot posture detection device and a method for detecting a robot posture using values detected through a motor and a contact sensor. The apparatus for detecting a robot posture of the present invention includes a plurality of motors attached to a robot to detect movement of the robot, a plurality of contact sensors attached to the robot to distinguish a contact between a user and an object with the robot, and the motor; It includes a robot control unit for detecting the posture of the robot based on the information detected through the contact sensor, whereby the posture of the robot that can detect the posture of the robot in a variety of ways and interacts while contacting a person It can be grasped.

로봇, 자세, 검출, 모터, 센서, 접촉, 기준, 학습, 사람, 사용자, 사물 Robot, posture, detection, motor, sensor, contact, criteria, learning, person, user, object

Description

로봇의 자세 검출 장치 및 그 방법{Apparatus and Method for detecting pose of robot}Apparatus and Method for detecting pose of robot

도 1은 본 발명의 바람직한 실시예에 따른 로봇에 대한 모터 및 센서의 부착 예를 도시한 도면, 1 is a view showing an example of attachment of a motor and a sensor to a robot according to a preferred embodiment of the present invention,

도 2는 본 발명의 실시예에 따른 로봇 내에 로봇제어유닛이 부착된 형태의 예를 도시한 도면, 2 is a view showing an example of the form attached to the robot control unit in the robot according to an embodiment of the present invention,

도 3은 본 발명의 실시예에 따라 로봇(100)에 구비되는 로봇제어유닛, 모터부를 포함하는 모터집합부, 및 센서부의 네트워크 연결 구성 예를 도시한 도면, 3 is a diagram illustrating an example of a network connection configuration of a robot control unit provided in a robot 100, a motor assembly including a motor unit, and a sensor unit according to an embodiment of the present invention;

도 4 및 도 5는 본 발명의 실시예에 따른 로봇과 사람의 접촉 예를 도시한 도면, 4 and 5 illustrate an example of contact between a robot and a person according to an embodiment of the present invention;

도 5는 본 발명의 실시예에 따른 로봇과 사람의 상호작용 및 그 상황의 로봇의 자세 검출을 위한 다른 예를 도시한 도면, FIG. 5 is a diagram illustrating another example for detecting a robot's interaction with a person and a robot's posture in a situation according to an embodiment of the present invention; FIG.

도 6은 본 발명의 실시예에 따른 로봇의 검출자세 및 예외자세에서 기준자세로의 복귀에 대한 개념을 설명하기 위한 도면, 6 is a view for explaining the concept of the return to the reference posture from the detection posture and exceptional posture of the robot according to an embodiment of the present invention,

도 7은 본 발명의 바람직한 실시예에 따른 로봇의 자세검출방법을 도시한 흐름도, 7 is a flowchart illustrating a method of detecting a posture of a robot according to a preferred embodiment of the present invention;

도 8 내지 도 11은 본 발명의 실시예에 따른 학습 자세검출방법에 따른 로봇 의 자세 검출을 위한 구성 예를 설명하기 위한 도면, 그리고 8 to 11 are views for explaining a configuration example for the posture detection of the robot according to the learning posture detection method according to an embodiment of the present invention, and

도 12는 본 발명의 실시예에 따른 프로그램 자세검출방법에 따른 로봇의 자세 검출 수단 및 자세 수정 수단의 구성 예를 도시한 도면이다. 12 is a diagram showing an example of the configuration of the posture detecting means and the posture correcting means of the robot according to the program posture detection method according to an embodiment of the present invention.

본 발명은 자세 변형이 가능한 로봇에 관한 것으로서, 보다 상세하게는 자세 변형이 가능한 로봇의 움직임에 따른 해당 자세를 검출하기 위한 로봇의 자세 검출 장치 및 그 방법에 관한 것이다. The present invention relates to a robot capable of modifying a posture, and more particularly, to an apparatus and method for detecting a posture of a robot for detecting a corresponding posture according to a movement of a robot capable of modifying a posture.

일반적으로, 로봇은 사람이 수행하기 힘든 작업, 예를 들어 무거운 물건을 운반하는 작업이나 고도의 정밀도를 필요로 하는 작업 또는 고온/저온의 작업 환경에서 해당 작업을 수행해야하는 산업현장에서 주로 사용되어진다. In general, robots are often used in jobs that are difficult for humans to perform, for example, to transport heavy objects, to work that requires a high degree of precision, or in industrial sites where the work must be performed in high or low temperature working environments. .

최근에는 산업분야에서 정해진 산업용 작업을 수행하는 산업용 로봇 분야에서 벗어나, 가정용 로봇, 애완용 로봇, 인명구조로봇, 인조인간 로봇 등의 비산업형 로봇이 등장하고 있다. 그 중에서도 사람이 주거하는 환경에서 사람과 함께 생활하면서 사용자와 함께 대화를 수행하거나 사용자의 일을 도와주는 인터렉티브(interactive)가 가능한 로봇에 대한 연구가 보다 활발하게 진행되고 있다. Recently, non-industrial robots such as home robots, pet robots, lifesaving robots, and artificial human robots have emerged from the field of industrial robots performing industrial tasks specified in the industrial field. Among them, researches on interactive robots that can live with people in a residential environment and communicate with users or help users work are being actively conducted.

산업용 로봇에 비해 인조인간 로봇은 사람과 비슷한 모양과 움직임의 자유도를 가지도록 개발되고 있다. 특히 인조인간 로봇은 사람과 같이 머리와 몸통, 및 두 팔과 두 다리가 사람과 유사하게 구비된 형태를 취한다. Compared to industrial robots, artificial robots are developed to have similar shapes and freedom of movement as humans. In particular, the artificial robot takes the form of a head, a torso, and arms and legs similar to a human like a human.

이러한 인조인간 로봇은 스스로 움직여야 하므로 많은 기술이 요하고 있으며, 특히 움직임을 제어하기 위한 보다 정확한 로봇의 자세 검출 기법이 요구된다. Since these artificial robots must move by themselves, many technologies are required, and in particular, a more accurate robot posture detection technique for controlling movement is required.

이하, 로봇의 자세 제어와 관련하여 공지된 특허를 소개한다. Hereinafter, known patents related to attitude control of a robot will be introduced.

한국 공개특허번호 2004-0108526(2004.12.24) "각식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치"는, 다수의 관절 자유도를 갖는 각식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치에 관한 내용을 기술하고 있다. 이 특허 발명은 직립 자세를 갖는 각식 이동 로봇의 동작 제어 장치와 제어 방법 및 이들을 이용한 로봇 장치를 제공하는 것으로, 직립 보행에 가속도 센서, 자세 센서 등을 부착하여 (Zero Movement Point: ZMP) 알고리즘을 이용하여 자세 안정도를 판별하여 이를 자세 안정화에 활용하는 것이다. Korean Patent Laid-Open No. 2004-0108526 (2004.12.24) "Motion control device and motion control method and robot device for an angle mobile robot" is a motion control device and motion control method and robot device for each mobile robot having a plurality of joint degrees of freedom. Describes the content of This patent invention provides a motion control device and control method for an angle mobile robot having an upright posture, and a robot device using the same. The acceleration movement, a posture sensor, and the like are attached to an upright walk using a (Zero Movement Point: ZMP) algorithm. It is to determine posture stability and use it for posture stabilization.

한국 공개특허번호 2005-0002302(2005.01.07) "이족보행로봇의 실시간 자세제어 장치 및 방법"은 이족 보행 로봇의 전후 기울기와 좌우 기울기를 측정하여 실시간 자세를 제어하는 것을 목적으로 하며, 이를 위해 이족 보행 로봇의 전후 기울기와 좌우 기울기를 해당 축 방향의 기울기를 검출하는 일축 또는 이출 기울기 센서를 이용하여 이족 보행 로봇의 자세를 실시간 제어하는 방법을 개시하고 있다. Korean Patent Laid-Open Publication No. 2005-0002302 (2005.01.07) "A real-time attitude control apparatus and method of biped walking robot" aims to control real-time posture by measuring the front and rear tilt and left and right tilt of biped walking robot. Disclosed is a method for real-time control of the posture of a biped walking robot using a single-axis or an inclined tilt sensor that detects the tilt of the walking robot in front of and behind the left and right tilts.

상기 두 선행 특허는 주로 이족 보행 로봇을 그 대상으로 하고 있으며, 자세 제어를 위해 가속도 센서, 자세 센서, 기울기 센서 등을 이용하고 수학적 계산을 통해 안정된 자세를 취하는 방법을 제공하고 있다. The two prior patents mainly target biped walking robots, and provide a method of using a acceleration sensor, a posture sensor, a tilt sensor, and the like to take a stable posture through mathematical calculations for posture control.

한국 공개특허번호 2001-0022664(2001.03.26) "로봇 장치 및 그 자세 제어 방법"은 로봇이 정상의 상태가 아닌 다른 상이한 자세가 된 것을 파악하여 정상의 상태로 복귀하는 것을 목표로 가속도 센서의 출력에 의해 얻어지는 가속도 정보에 따라 로봇의 자세 상태가 정상의 상태가 아닌 상이한 상태임을 파악하여 복귀하는 방법을 제시하고 있으며, 접촉 센서의 상태 정보도 자세 파악에 활용가능하다고 언급하고 있다. Korean Patent Laid-Open Publication No. 2001-0022664 (2001.03.26) "Robot device and its attitude control method" is an output of an acceleration sensor that aims to return to a normal state by detecting that the robot has a different posture than a normal state. According to the acceleration information obtained by the present invention, it suggests a method of retrieving and returning that the attitude state of the robot is different from the normal state, and states that the state information of the contact sensor can also be used for attitude estimation.

그런데, 상기와 같은 기존의 발명들은 로봇이 독자적으로 움직이는 상태에서의 자세 파악하는 것을 제공하는 것일 뿐, 로봇이 사람과 접촉하면서 상호 교감하는 중에 로봇의 자세를 파악하는 것에 대해서는 언급하고 있지 않고 있다. 예를 들어, 사람이 로봇을 안고 있는 상태와 같은 로봇 자세 검출이 중요한 상황에서 로봇의 자세를 파악할 수 있는 방법이 요구된다. However, the existing inventions as described above only provide the grasp of the posture in a state in which the robot moves independently, and do not mention the grasp of the posture of the robot while the robot is in contact with each other. For example, there is a need for a method of identifying a robot's posture in a situation in which a robot posture detection is important, such as a human holding a robot.

한국 공개특허번호 '2001-0022664'에서는 자세 판단을 위해 접촉 센서를 이용할 수 있다고 언급하고 있으나, 이는 단순히 어디에 닿았다는 것만을 알 수 있을 뿐 사람과 로봇이 접촉하면서 상호 작용하는 상황에서의 로봇 자세 파악은 불가능하다는 문제점이 있다. Korean Patent Publication No. 2001-0022664 mentions that a touch sensor can be used to determine posture, but it can only know where it has been touched, and grasp the robot posture in a situation where a human and a robot interact with each other. Has the problem that is impossible.

상기와 같은 문제점을 해결하기 위한 본 발명의 제1 목적은, 외부 접촉에 대해 보다 용이하게 로봇의 자세를 검출할 수 있는 로봇 자세 검출 장치 및 그 방법을 제공하는 데 있다. A first object of the present invention for solving the above problems is to provide a robot posture detection device and method that can detect the posture of the robot with respect to external contact more easily.

본 발명의 제2 목적은, 사람이 로봇을 안고 있는 상태와 같은 로봇이 사람과 접촉하면서 보다 용이하게 상호 교감할 수 있도록 로봇의 자세 검출 장치 및 그 방법을 제공하는 데 있다. It is a second object of the present invention to provide a robot posture detection device and a method for allowing a robot such as a state in which a person is holding a robot to interact with each other more easily.

본 발명의 제3 목적은, 로봇이 접촉된 외부 접촉물과 보다 용이한 상호작용을 위한 로봇의 자세 검출 장치 및 그 방법을 제공하는 데 있다. A third object of the present invention is to provide an apparatus and method for detecting a posture of a robot for easier interaction with an external contact with which the robot is in contact.

상기와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 로봇의 자세 검출 장치는, 로봇에 부착되어 상기 로봇의 움직임을 검출하는 복수의 모터; 상기 로봇에 부착되어 상기 로봇에 대한 사용자 및 사물의 접촉을 구별하는 복수의 접촉센서; 및 상기 모터 및 접촉센서를 통해 검출되는 정보에 기초하여 상기 로봇의 자세를 검출하는 로봇제어부를 포함한다. An apparatus for detecting a posture of a robot according to an embodiment of the present invention for achieving the above object includes: a plurality of motors attached to the robot to detect movement of the robot; A plurality of contact sensors attached to the robot to distinguish a contact between a user and an object with respect to the robot; And a robot controller configured to detect the attitude of the robot based on information detected by the motor and the contact sensor.

바람직하게는, 상기 모터는, 상기 모터의 동작을 제어하는 프로세싱부; 및 상기 모터와 상기 로봇제어부의 통신 인터페이스를 제공하여 상기 모터의 동작에 따른 상기 로봇의 움직임을 검출하여 상기 로봇제어부에 제공하는 드라이버를 포함한다. Preferably, the motor, the processing unit for controlling the operation of the motor; And a driver that provides a communication interface between the motor and the robot controller to detect a movement of the robot according to the operation of the motor and provide the robot to the robot controller.

상기 접촉센서는, 열에 대한 감지 및 습도에 대한 감지 기능을 함께 갖는 제1 접촉 센서; 상기 열에 대한 감지 기능을 갖는 제2 접촉 센서; 및 외부 접촉 여부에 대한 감지 기능을 갖는 제3 접촉 센서 중 어느 하나가 적용된다. The touch sensor may include a first contact sensor having a function of sensing heat and a sensing function of humidity; A second contact sensor having a heat sensing function; And a third touch sensor having a sensing function of whether or not the external touch is applied.

상기 제1 접촉 센서는, 인체 및 사물이 접촉된 경우, 사물이 접촉된 경우, 상기 인체가 근접해 있지만 접촉되지 않은 경우, 및 상기 인체 및 사물이 근접해 있지도 않고 접촉 되지 않은 경우를 구분하여 상기 접촉 감지를 수행한다. 상기 제2 접촉 센서는, 인체가 접촉된 경우, 사물이 접촉된 경우, 상기 인체가 근접해 있지만 접촉되지 않은 경우, 및 상기 인체가 근접해 있지도 않고 접촉 되지 않은 경우를 구분하여 상기 접촉 감지를 수행한다. 상기 제3 접촉 센서는, 인체 또는 사물이 접촉된 경우, 및 상기 인체 또는 사물이 접촉되지 않은 경우를 구분하여 상기 접촉 감지를 수행한다. The first touch sensor detects the contact by classifying a case where the human body and the object are in contact, when the object is in contact, when the human body is in proximity but not in contact, and when the human body and the object are neither in proximity nor contact. Perform The second touch sensor performs the touch detection by classifying a case in which a human body is in contact, an object in contact, a case in which the human body is in proximity but not in contact with the human body, and a case in which the human body is not in proximity or in contact with the body. The third touch sensor distinguishes the case where the human body or the thing is in contact with the case where the human body or the thing is not in contact and performs the touch sensing.

상기 로봇제어부는, 상기 로봇의 자세를 검출할 때, 상기 모터의 값만을 이용하는 경우, 상기 센서의 값만을 이용하는 경우, 및 상기 모터와 센서의 값을 함께 이용하는 경우 중 어느 하나를 통해 상기 로봇의 자세를 검출한다. The robot controller may detect the posture of the robot by using only the value of the motor, using only the value of the sensor, or using the value of the motor and the sensor together. Detect.

상기 로봇제어부는, 상기 로봇의 자세를 검출할 때, 미리 프로그램된 자세 값과 현재 검출된 값을 비교하여 상기 로봇의 자세를 검출하는 프로그램 자세 검출방식; 및 상기 모터 및 센서 값의 자세 학습을 통하여 상기 로봇의 자세를 검출하는 학습 자세 검출방식 중 어느 하나를 이용한다. The robot control unit may include: a program posture detection method for detecting a posture of the robot by comparing a pre-programmed posture value with a currently detected value when detecting the posture of the robot; And a learning posture detection method for detecting a posture of the robot through posture learning of the motor and sensor values.

상기 로봇제어부는, 상기 프로그램 자세 검출방식을 이용하는 경우, 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들을 수집하는 상태정보 수집부; 및 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들에 대응하여 기 설정된 상기 로봇의 자세정보에 기초하여, 상기 수집한 정보들에 대응하는 상기 로봇의 자세를 검출하는 자세 검출부를 포함한다. The robot control unit may include: a state information collecting unit collecting information detected from the motor and the contact sensor when using the program posture detection method; And a posture detection unit configured to detect postures of the robots corresponding to the collected information based on preset posture information of the robots corresponding to information detected from the motor and the contact sensor.

상기 로봇제어부는, 상기 자세 검출부에서 상기 수집한 정보들에 대응하여 검출한 상기 로봇의 자세가 상기 기 설정된 로봇의 기준자세가 아닌 경우, 상기 로 봇의 자세를 상기 자세 검출부에서 검출한 로봇의 자세가 포함되는 상기 기 설정된 로봇의 자세정보의 유사자세그룹 내에 설정된 기준자세로 수정한다. The robot controller may detect a posture of the robot by the posture detector when the posture of the robot detected in response to the collected information by the posture detector is not a reference posture of the preset robot. Correct the reference posture set in the similar posture group of the preset posture information of the robot included.

상기 로봇제어부는, 상기 학습 자세 검출방식을 이용하는 경우, 자세검출 학습용 디바이스로부터 학습을 통해 얻어진 상기 로봇의 학습결과모델을 제공 받아 저장하는 저장부; 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들을 수집하는 상태정보 수집부; 및 상기 저장된 학습결과모델에 기초하여, 상기 수집한 정보들에 대응하는 상기 로봇의 자세를 검출하는 자세 검출부를 포함한다. The robot controller may include: a storage unit configured to receive and store a learning result model of the robot obtained through learning from a posture detection learning device when using the learning pose detection method; A state information collecting unit collecting information detected from the motor and the contact sensor; And a posture detection unit that detects a posture of the robot corresponding to the collected information based on the stored learning result model.

상기 로봇제어부는, 상기 자세 검출부에서 검출한 상기 로봇의 자세가 기준자세가 아닌 경우, 상기 로봇의 자세를 상기 자세 검출부에서 검출한 로봇의 자세가 포함되는 상기 기 설정된 로봇의 자세정보의 유사자세그룹 내에 설정된 기준자세로 수정하는 자세 수정부를 포함한다. The robot control unit, when the posture of the robot detected by the posture detection unit is not a reference posture, the posture similar group of the posture information of the preset robot including the posture of the robot detected by the posture detection unit And a posture correcting unit configured to correct the reference posture set therein.

상기 학습결과모델은, 상기 모터의 상태값들을 입력으로 하고 그 때의 상기 로봇 자세; 상기 모터의 상태값들과 상기 접촉 센서의 값들을 모두 입력으로 하고 그 때의 상기 로봇 자세; 및 상기 접촉 센서의 값들을 입력으로 하고 그 때의 상기 로봇 자세 모델을 포함한다. The learning result model includes: the robot posture at the time of inputting state values of the motor; The robot posture at the time of inputting both the state values of the motor and the values of the contact sensor; And the robot attitude model at that time with the values of the touch sensor as inputs.

상기 모터의 상태값은, 상기 모터의 상태값 그 자체, 상기 모터의 상태값을 심볼화한 값, 및 상기 모터의 그룹 단위 상태값을 심볼화한 값을 포함한다. The state value of the motor includes a state value of the motor itself, a value of symbolizing a state value of the motor, and a value of symbolizing a group unit state value of the motor.

상기 자세 수정부는, 상기 자세 검출부에서 검출한 상기 로봇의 자세가, 상기 기준자세와 비교하여 서로 불일치하는 경우, 상기 모터의 상태값을 변경하여 상기 로봇에 대한 기준자세로의 이동을 수행한다. The posture correcting unit, when the postures of the robot detected by the posture detecting unit, are inconsistent with each other in comparison with the reference posture, change the state value of the motor to move to the reference posture with respect to the robot.

상기 자세 수정부는, 상기 로봇 자세 변경을 통해 상기 로봇의 자세가 상기 기준자세가 되지 않는 경우, 사용자 인터페이스를 통하여 사용자에게 상기 로봇을 상기 기준자세로 복귀시켜 줄 것을 요청한다. The posture correcting unit requests the user to return the robot to the reference posture through a user interface when the posture of the robot does not become the reference posture by changing the robot posture.

상기와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 로봇의 자세 검출 방법은, 로봇에 부착된 복수의 모터를 통해 상기 모터의 상태값에 기초한 상기 로봇의 움직임을 검출하는 단계; 상기 로봇에 부착된 복수의 접촉센서를 통해 감지되는 상기 로봇에 대한 사용자 및 사물의 접촉 정보를 수집하는 단계; 및 상기 검출된 로봇의 움직임 정보 및 상기 접촉 정보에 기초하여 상기 로봇의 자세를 검출하는 단계를 포함한다. According to an aspect of the present invention, there is provided a method for detecting a posture of a robot, the method including: detecting a movement of the robot based on a state value of the motor through a plurality of motors attached to the robot; Collecting contact information of a user and an object with respect to the robot detected through a plurality of contact sensors attached to the robot; And detecting a posture of the robot based on the detected motion information of the robot and the contact information.

본 발명의 실시예에 따른 로봇의 자세 검출 방법은, 상기 검출한 로봇의 자세가 예외 자세인지를 판별하는 단계; 상기 검출한 로봇의 자세가 예외 자세이면, 상기 검출한 로봇의 자세가 포함되는 유사자세그룹의 기준자세를 계산하는 단계; 및 상기 검출한 로봇의 자세에 따른 상기 모터의 상태값을 상기 기준자세에 대응하는 값으로 변경하는 단계를 더 포함한다. In accordance with another aspect of the present invention, there is provided a posture detecting method of a robot, the method comprising: determining whether the detected posture of the robot is an exception posture; Calculating a reference posture of the similar posture group including the detected posture of the robot when the posture of the detected robot is an exceptional posture; And changing a state value of the motor according to the detected attitude of the robot to a value corresponding to the reference posture.

본 발명의 실시예에 따른 로봇의 자세 검출 방법은, 상기 검출한 로봇의 자세가 예외 자세가 아니면, 상기 기준자세와 상기 검출한 로봇의 자세에 따른 모터의 상태값이 일치하는 지를 판별하는 단계; 상기 기준자세와 상기 검출한 로봇의 자세에 따른 모터의 상태값이 일치하지 않으면, 상기 검출한 로봇의 자세에 따른 상기 모터의 상태값을 상기 기준자세에 대응하는 값으로 변경하는 단계를 더 포함한다. According to an embodiment of the present invention, a method of detecting a robot includes: determining whether a state of a motor corresponding to the reference posture and the detected robot's posture coincides if the detected robot's posture is not an exception posture; Changing the state value of the motor according to the detected attitude of the robot to a value corresponding to the reference attitude, if the state value of the motor according to the attitude of the detected robot does not match. .

본 발명에 따르면, 로봇의 움직임을 검출하는 모터와, 사람의 접촉과 사물의 접촉을 구별할 수 있는 접촉센서를 통해 로봇의 자세를 검출함으로써, 보다 다양하게 로봇의 자세를 검출할 수 있고 사람과 접촉을 하면서 상호작용을 하는 로봇의 자세도 파악이 가능하다. According to the present invention, by detecting the position of the robot through a motor for detecting the movement of the robot and a contact sensor that can distinguish the contact between the human contact and the object, it is possible to detect the posture of the robot in a variety of ways It is also possible to grasp the attitude of the interacting robot while making contact.

이하, 본 발명의 바람직한 실시예들을 첨부한 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the same elements in the figures are represented by the same numerals wherever possible. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

본 발명은 모터와 센서를 이용하여 로봇의 자세를 파악할 수 있는 방법을 제안한다. The present invention proposes a method for determining the pose of a robot using a motor and a sensor.

이에 본 발명에서는 (사람의 몸에서 발산되는) 열과 습도를 감지할 수 있는 접촉 센서를 제공함과 함께, 이를 이용한 로봇의 자세 파악 방법을 제공함으로써, 로봇의 일부분이 사람이 접촉한 것인지 단순히 사물에 접촉된 것인지를 구분할 수 있도록 한다. 이에 따라, 기존과 달리 로봇과의 상호작용 중에 발생할 수 있는 로봇의 자세도 검출이 가능하다. Accordingly, the present invention provides a contact sensor capable of detecting heat and humidity (which is emitted from a human body) and a method of determining a posture of the robot using the same, whereby a part of the robot is simply in contact with an object. Make sure you can tell if something is wrong. Accordingly, unlike the conventional method, the posture of the robot, which may occur during interaction with the robot, may be detected.

또한, 본 발명에서는 단순히 검출되어야 하는 자세를 메모리에 프로그램하여 두는 방법뿐만 아니라 모터/센서 데이터의 학습을 통해 자세를 검출하는 방법도 제공한다. 이를 통해, 명확히 특정한 자세라고 판단하기 어려운 자세인 경우에도 학습을 통해 가장 유사한 자세를 검출할 수 있도록 한다. 이러한 방법을 이용할 경우 일반적으로 검출되어야 하는 자세를 메모리에 미리 프로그램 해두고, 자세 검출 을 할 경우 검출하기 어려운 또는 중의성(ambiguity)을 가지는 자세의 경우도 검출할 수 있도록 한다. In addition, the present invention provides a method of detecting a posture by learning motor / sensor data as well as a method of simply programming a posture to be detected in a memory. Through this, even the posture that is difficult to be determined as a specific posture can be detected through the most similar posture through learning. When using this method, a posture which should generally be detected is programmed in memory in advance, and when a posture detection is performed, it is possible to detect a posture that is difficult to detect or has an ambiguity.

뿐만 아니라, 기존에는 모터의 값과 가속도 센서, 기울기 센서 등을 이용하고 수학적 계산을 통해 이족 보행 로봇의 자세를 검출하였으나, 본 발명에서는 모터나 (접촉)센서 또는 이들 둘의 혼합을 통해 로봇과 사람이 접촉하는 경우에도 로봇의 자세 검출이 가능하도록 한다. In addition, the attitude of the biped walking robot was detected through mathematical calculations using a motor value, an acceleration sensor, an inclination sensor, and the like, but in the present invention, the robot and the person are controlled by a motor or a (contact) sensor or a mixture of the two. Even when this contact is made, the robot's posture can be detected.

본 발명에서는 로봇을 2족이나, 4족 등 특별한 형태로 제한하지 않지만 설명의 편의를 위해 앞발 2개(왼쪽, 오른쪽), 뒷발 2개(왼쪽, 오른쪽), 머리(모터로 제어되는 눈꺼풀 2개, 귀 2개), 몸통을 구비한 4족 로봇을 예로 든다. 또한, 모터와 모터가 프레임으로 연결되고, 각 부분들이 또한 연결되어야 하지만 이것은 본 발명에서 이루고자 하는 자세 검출 방법 별도로 다루어질 수 있는 부분이므로 모터와 모터와의 연결, 로봇 각 부위의 연결 등에 대해 특별히 설명을 하지는 않지만, 이들이 동작이 가능하도록 연결된 상태인 것으로 본다. In the present invention, the robot is not limited to a special form such as 2 or 4 groups, but for convenience of description, two forefoot (left and right), two forefoot (left and right), and a head (two eyelids controlled by a motor) , Four ears) and a torso robot with torso. In addition, the motor and the motor is connected to the frame, and each part should also be connected, but this is a part of the attitude detection method to be achieved in the present invention can be dealt with separately, so the motor and motor connection, the connection of each part of the robot, etc. It does not, but it is assumed that they are connected to enable operation.

본 발명에서는 로봇 장치에 부착된 모터와 센서, 상기 모터와 센서 및 이들의 혼합을 통해 제공되는 정보를 통해 로봇의 자세를 검출하는 수단과, 상기 검출된 로봇의 자세로부터 미리 정의된 가장 유사한 안정된 자세로 로봇 장치의 자세를 수정하는 수단과, 상기 로봇의 자세를 검출하는 수단과 상기 로봇의 자세를 수정하는 수단을 수행하는 로봇 제어 유닛을 가지는 로봇의 자세 검출 장치 및 그 방법을 제공한다. In the present invention, the motor and sensor attached to the robot device, the means for detecting the position of the robot through the information provided through the motor and the sensor and a mixture thereof, and the most stable stable posture predefined from the detected position of the robot And a robot control unit for performing a means for correcting the posture of the robot apparatus, a means for detecting the posture of the robot, and a means for correcting the posture of the robot.

도 1은 본 발명의 바람직한 실시예에 따른 로봇에 대한 모터 및 센서의 부착 예를 도시한 도면이다. 도면에서 도 1의 (a)는 로봇(100)의 전면을 나타낸 것이고, 도1의 (b)는 로봇(100)의 후면을 나타낸 것이다. 1 is a diagram illustrating an example of attachment of a motor and a sensor to a robot according to a preferred embodiment of the present invention. In Figure 1 (a) shows the front of the robot 100, Figure 1 (b) shows the rear of the robot 100.

도시된 바와 같이, 모터부(151~155)는 물리적 움직임을 수행하는 모터 자체와 모터의 제어, 및 로봇의 전체적인 동작을 제어하는 로봇 제어 유닛(도 2의 200)과의 통신 기능을 수행하는 드라이버로 구성되어 있다. 모터부(151~155)는 로봇(100)이 기준 위치에서 얼마나 이동되었는지 등의 자신의 위치 값 정보를 제공할 수 있다. As shown, the motor units 151 to 155 are drivers for performing a communication function between the motor itself performing physical movement, the control of the motor, and the robot control unit (200 of FIG. 2) controlling the overall operation of the robot. Consists of The motors 151 to 155 may provide their own position value information such as how much the robot 100 is moved from the reference position.

모터집합부(110, 120, 130, 140)는 모터부(151~155)와 같은 구성이 복수 개 연결된 것을 간략히 도식화한 것이다. 따라서, 모터집합부(110, 120, 130, 140)는 모터부(151~155)와 같은 구성이 2개 이상 프레임으로 연결된 것으로 볼 수 있다. Motor assembly unit 110, 120, 130, 140 is a simplified diagram of a plurality of configurations, such as the motor unit (151 ~ 155) is connected. Therefore, the motor assembly parts 110, 120, 130, and 140 may be regarded as connected to two or more frames having the same configuration as the motor parts 151 to 155.

본 발명의 실시예에 따라 로봇(100)에 구비되는 센서부(160~176)에 사용되는 센서는 아래와 같은 특성 중 어느 하나의 특성을 갖는다. According to an embodiment of the present invention, the sensor used in the sensor units 160 to 176 provided in the robot 100 has any one of the following characteristics.

첫째, 센서부(160~176)에 사용되는 센서는 열에 대한 감지 기능, 습도에 대한 감지 기능을 가지는 접촉 센서(이하, 접촉센서1이라 함)이다. 이러한 접촉센서1은 사람의 신체에서 발산되는 열 및 습도를 감지할 수 있다. First, the sensor used for the sensor units 160 to 176 is a touch sensor (hereinafter, referred to as touch sensor 1) having a heat sensing function and a humidity sensing function. The touch sensor 1 may detect heat and humidity emitted from a human body.

둘째, 센서부(160~176)에 사용되는 센서는 열에 대한 감지 기능을 가진 접촉 센서(이하, 접촉센서2라 함)이다. 이러한 접촉센서2는 사람의 신체에서 발산되는 열을 감지할 수 있다. Second, the sensor used for the sensor unit 160 to 176 is a touch sensor (hereinafter referred to as touch sensor 2) having a heat sensing function. The touch sensor 2 may detect heat emitted from a human body.

셋째, 센서부(160~176)에 사용되는 센서는 단순히 무엇인가가 닿았다는 것을 알 수 있는 접촉 센서(이하, 접촉센서3이라 함)이다. Third, the sensor used for the sensor units 160 to 176 is simply a touch sensor (hereinafter referred to as touch sensor 3) that can know that something has been touched.

이와 같은 세 가지 특성 중 어느 하나의 특성을 갖는 센서부(160~176)에 사용되는 센서는 감지한 값을 로봇제어유닛(200)과 서로 주고 받을 수 있는 기능 등을 제공하는 드라이버와 함께 로봇(100)에 구비된다. Sensors used in the sensor units 160 to 176 having any one of the three characteristics, such as the robot with a driver that provides a function that can exchange the detected value with the robot control unit 200, etc. 100).

센서부(160~176)의 접촉센서1은 인체가 접촉된 경우, 사물이 접촉된 경우, 인체가 근접해 있지만 접촉되지 않은 경우, 및 인체 및 사물이 근접해 있지도 않고 접촉되지 않은 경우 등으로 감지 기능을 구분할 수 있다. The touch sensor 1 of the sensor unit 160 to 176 detects a function such as when the human body is in contact, when the object is in contact, when the human body is in proximity but not in contact, and when the human body and the object are not in proximity or in contact with each other. Can be distinguished.

센서부(160~176)의 접촉센서2는 접촉센서1과 마찬가지로 인체가 접촉된 경우, 사물이 접촉된 경우, 인체가 근접해 있지만 접촉되지 않은 경우, 및 인체가 근접해 있지도 않고 접촉되지 않은 경우, 즉 4가지의 경우로 감지 기능을 구분할 수 있다. Like the touch sensor 1, the touch sensor 2 of the sensor unit 160 to 176 is a case in which the human body is in contact, when the object is in contact, when the human body is in proximity but not in contact, and when the human body is neither in proximity nor in contact, that is, In four cases, detection functions can be distinguished.

마지막으로 센서부(160~176)의 접촉센서3은 인체 또는 사물이 접촉된 경우 및 접촉되지 않은 경우로 감지 기능을 구분할 수 있다. Finally, the contact sensor 3 of the sensor unit 160 to 176 may distinguish a sensing function into a case in which the human body or an object is in contact with the person or the object is not in contact.

본 발명에서는 센서부(160~176)의 접촉센서1 및 접촉센서2의 특징을 갖는 센서를 통해 감지 기능을 제공한다. In the present invention provides a sensing function through the sensor having the characteristics of the contact sensor 1 and the contact sensor 2 of the sensor unit (160 ~ 176).

기존의 접촉센서(접촉센서3)는 단순히 무엇인가가 닿았다는 것만을 알 수 있으나, 접촉센서1과 접촉센서2는 사람이 닿았는지 사물이 닿았는지를 구분할 수 있으며, 본 발명에서 이루고자 하는 로봇(100)의 자세 검출 방법에 이용될 수 있다. Existing touch sensor (contact sensor 3) can simply know that something has been touched, but the contact sensor 1 and the contact sensor 2 can distinguish whether a person touches or something touched, the robot to achieve in the present invention ( 100) can be used in the posture detection method.

센서부(160~176)의 접촉센서1과 접촉센서2를 사용하더라도 사람이 신체 중 외부에 노출된 부분과 옷과 같은 것에 의해 한 단계 가려진 부분의 감지된 센서 출력 값은 다를 수 있다. 그러나, 이러한 경우도 실험 값에 의해 이들을 구분할 수 있으므로, 본 발명에서는 이것을 상세하게 구분하여 설명을 하지는 않는다. Even when the touch sensor 1 and the touch sensor 2 of the sensor units 160 to 176 are used, the sensed sensor output value of the part hidden by one step by a person such as clothes exposed to the outside of the body may be different. However, even in such a case, these can be distinguished by experimental values, and thus the present invention will not be described in detail.

도 1에서 예시한 바와 같이 모터부(151~155)는 로봇(100) 장치를 구성하기 위해 임의의 개수로 구성될 수 있다. As illustrated in FIG. 1, the motor units 151 to 155 may be configured in any number to configure the robot 100 device.

예를 들어, 모터부(152)는 오른쪽 눈꺼풀을 제어하기 위한 것이고, 모터부(153)는 왼쪽 눈꺼풀을 제어하기 위한 것이다. 또한, 모터부(151)와 모터부(154)는 각각 오른쪽 귀와 왼쪽 귀를 제어하기 위한 것이다. For example, the motor unit 152 is for controlling the right eyelid, and the motor unit 153 is for controlling the left eyelid. In addition, the motor unit 151 and the motor unit 154 are for controlling the right ear and the left ear, respectively.

이와 같이 본 발명은 로봇(100)의 다리뿐만 아니라 눈꺼풀이나 귀와 같은 모든 위치에 부착된 모터부나 이후에 설명할 센서부들도 자세 파악을 위한 다양한 부위에 부착되어 사용될 수 있다. 예를 들면, 왼쪽 귀가 앞으로 구부려진 상태, 오른쪽 눈꺼풀이 감긴 상태 등도 본 발명에서 로봇(100)의 자세 검출을 위한 대상이 된다. As described above, the present invention may be used to attach various parts for grasping the position of the motor unit attached to all positions such as the eyelid or the ear as well as the sensor unit as well as the legs of the robot 100. For example, a state in which the left ear is bent forward, a state in which the right eyelid is closed, and the like are also objects for the posture detection of the robot 100 in the present invention.

도 1의 (b)는 로봇(100)의 뒤쪽에 센서부(172~176)가 부착된 예를 도시한 것이다. 센서부(172~176)의 부착도 모터부(151~155)와 마찬가지로 로봇(100) 몸체의 어느 위치에라도 부착될 수 있으며, 일반적으로는 바닥 면과 접촉하는 부분에 주로 부착하게 된다. FIG. 1B illustrates an example in which sensor units 172 to 176 are attached to the back of the robot 100. The attachment of the sensor parts 172 to 176 may be attached at any position of the body of the robot 100, similarly to the motor parts 151 to 155, and is generally attached to a part contacting the bottom surface.

그러나, 본 발명에서는 바닥면 뿐만 아니라 사람과 쉽게 접촉하는 부분에도 센서부(172~176)를 부착한다. 예를 들면, 센서부(172~176)를 로봇(100)의 머리 뒤쪽, 귀, 이마, 허리, 옆구리, 및 엉덩이 부분 등이 사람과 자주 접촉하게 되는 부분이므로 이들 부위에도 센서부(172~176)를 부착할 수 있다. However, in the present invention, the sensor parts 172 to 176 are attached not only to the bottom surface but also to portions easily contacting the person. For example, since the sensor parts 172 to 176 are parts in which the back of the head of the robot 100, the ear, the forehead, the waist, the side, and the hip are frequently in contact with a person, the sensor parts 172 to 176 are also included in these parts. ) Can be attached.

도 2는 본 발명의 실시예에 따른 로봇(100) 내에 로봇제어유닛(200)이 부착 된 형태의 예를 도시한 도면이다. 2 is a view showing an example of the form attached to the robot control unit 200 in the robot 100 according to an embodiment of the present invention.

도시된 바와 같이, 로봇제어유닛(200)은 로봇(100)의 내부에 부착되며, 도 2는 로봇제어유닛(200)이 로봇(100)의 복부에 부착한 예를 보여주고 있으나, 로봇(100)의 다른 부분에도 부착될 수 있다. As shown, the robot control unit 200 is attached to the inside of the robot 100, Figure 2 shows an example in which the robot control unit 200 is attached to the abdomen of the robot 100, the robot 100 It can also be attached to other parts of).

본 발명에서는 로봇(100)에 전원 공급을 위한 부분을 별도로 나타내지는 않았으나, 전원은 배터리 등으로부터 공급될 수 있으므로 별도로 설명을 하지는 않는다. In the present invention, the part for supplying power to the robot 100 is not shown separately, but since the power may be supplied from a battery or the like, it will not be described separately.

도 3은 본 발명의 실시예에 따라 로봇(100)에 구비되는 로봇제어유닛(200), 모터부(151~155)를 포함하는 모터집합부(110~140), 및 센서부(160~176)의 네트워크 연결 구성 예를 도시한 도면이다. 3 is a robot control unit 200 provided in the robot 100 according to an embodiment of the present invention, a motor assembly unit 110 to 140 including a motor unit 151 to 155, and a sensor unit 160 to 176. Is a diagram illustrating an example of a network connection configuration.

도시된 바와 같이, 모터부(151~155,111,112) 및 센서부(160~176)는 로봇제어유닛(200) 내에 있는 버스(230)를 통해 CPU(Central Processing Unit)(210) 및 메모리(220)와 연결되는 구조로 되어 있다. 모터집합부(110~140)는 모터부(151~155,111,112)가 모여 있는 집합을 간략하게 표시한 것이므로, 개별 모터부(151~155,111,112)가 연결된 것과 동일한 방법으로 버스(230)를 통해 연결된다. As shown, the motor units 151 to 155, 111 and 112 and the sensor units 160 to 176 are connected to the CPU (Central Processing Unit) 210 and the memory 220 through the bus 230 in the robot control unit 200. The structure is connected. Since the motor assembly parts 110 to 140 briefly display the set in which the motor parts 151 to 155, 111 and 112 are gathered, the motor assembly parts 110 to 140 are connected through the bus 230 in the same manner as the individual motor parts 151 to 155, 111 and 112 are connected.

도 4 및 도 5는 본 발명의 실시예에 따른 로봇(100)과 사람의 접촉 예를 도시한 도면이다. 4 and 5 are diagrams showing examples of contact between the robot 100 and a person according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 로봇(100)과 사람(500)의 상호작용 및 그 상황에서 로봇(100)의 자세 검출 예를 설명하기 위한 도면이다. 4 is a view for explaining an example of the interaction between the robot 100 and the person 500 according to an exemplary embodiment of the present invention, and the attitude detection of the robot 100 in the situation.

도 4에 도시된 바와 같이, 로봇(100)은 뒤쪽 두 다리(구체적으로 160, 162의 접촉센서)가 사람(500)의 복부(B2, B3)와 접촉되고, 사람(500)의 오른손(B1)이 로봇(100)의 엉덩이(구체적으로 161의 접촉센서)에 접촉되는 형태를 도식화한 것이다. As shown in FIG. 4, the robot 100 has two rear legs (specifically, 160 and 162 contact sensors) contacting the abdomen B2 and B3 of the person 500, and the right hand B1 of the person 500. ) Is a diagram illustrating a form in which the robot 100 contacts the hip (specifically, the contact sensor of 161).

기존에 단순히 접촉이 되었는지 아닌지를 판단하는 센서(접촉센서3)를 사용한 경우에는, 로봇(100)이 엉덩이를 바닥면에 대고, 두 뒷발을 바닥면에 접촉한 상태에서 앞 두발을 들고 있는 경우와 도 4에서 로봇(100)의 형태는 기술적으로 구별이 되지 않는다. In the case of using a sensor (contact sensor 3) which simply determines whether or not the existing contact, the robot 100 is holding the front head with the hips on the floor and the two rear feet in contact with the floor. In FIG. 4, the shape of the robot 100 is not technically distinguishable.

따라서, 본 발명에서는 접촉센서1 또는 접촉센서2와 같은 특성을 갖는 접촉센서를 이용하여, 위의 두 가지 경우를 구별할 수 있다. Therefore, in the present invention, the above two cases can be distinguished by using a touch sensor having the same characteristics as the touch sensor 1 or the touch sensor 2.

열과 습도를 감지할 수 있는 접촉센서1의 경우, 사람(500)의 신체에서 발산되는 열과 습도에 대한 정보를 미리 기억시켜 두고, 사람(500)이 접촉하게 되었을 경우 이를 판단하도록 한다. In the case of the touch sensor 1 capable of detecting heat and humidity, information about heat and humidity emitted from the body of the person 500 is stored in advance, and when the person 500 comes into contact with the contact sensor 1, it is determined.

열을 감지할 수 있는 접촉센서2의 경우, 사람(500)의 신체에서 발산되는 열을 감지할 수 있는 접촉센서이므로, 단순히 바닥면에나 사물에 접촉한 것과 사람(500)이 접촉한 것을 구별할 수 있다. In the case of the touch sensor 2 capable of detecting heat, since it is a touch sensor capable of detecting heat emitted from the body of the person 500, the person 500 may be distinguished from simply touching the floor or an object. Can be.

이와 같이 본 발명에서는 열 및 습도를 감지할 수 있는 접촉센서1 및 열을 감지할 수 있는 접촉센서2를 사용함으로써, 로봇(100)이 독자적으로 동작하는 경우의 자세뿐만 아니라, 사람(500)과 상호작용하는 경우에도 로봇의 자세를 판단할 수 있다. As described above, in the present invention, by using the touch sensor 1 capable of sensing heat and humidity and the touch sensor 2 capable of sensing heat, as well as the posture when the robot 100 operates independently, the person 500 and In the case of interaction, the attitude of the robot can be determined.

도 5는 본 발명의 실시예에 따른 로봇과 사람의 상호작용 및 그 상황의 로봇 의 자세 검출을 위한 다른 예를 도시한 도면이다. FIG. 5 is a diagram illustrating another example for detecting a robot's interaction with a person and a robot's posture in a situation according to an embodiment of the present invention.

도시된 바와 같이, 로봇(100)이 엉덩이를 바닥면에 부착한 상태에서 두 뒷발이 바닥면에 닿아 있고, 로봇(100)의 두 앞발을 사람(500)이 손으로 잡고 있는 상태이다. As shown in the figure, the robot 100 has the two rear feet touching the floor with the hips attached to the floor, and the person 500 holds the two front feet of the robot 100 by hand.

여기서 로봇(100)이 사람(500)과 상호작용하지 않고 독자적으로 움직인다고 가정한다면, 로봇(100)의 자세를 파악하는 것이 불가능한 상황이다. 그러나, 본 발명에 따르면 로봇(100)이 사람(500)과 접촉한 두 부분이 단순히 바닥면에 닿은 부분과 구별이 가능하기 때문에, 이 상태가 로봇(100)이 몸체 뒷 부분을 바닥에 댄 상태로 사람(500)과 두 앞발이 닿아 있다는 것을 알 수 있다. Here, if it is assumed that the robot 100 moves independently without interacting with the person 500, it is impossible to determine the posture of the robot 100. However, according to the present invention, since the robot 100 can be distinguished from the part where the robot 100 is in contact with the person 500 by simply touching the bottom surface, this state is the state where the robot 100 puts the rear part of the body on the floor. As can be seen that the person 500 and the two forefoot are touching.

도 5를 통한 본 발명에 따르면 로봇(100)이 독자적으로 동작하는 경우뿐만 아니라, 로봇(100)이 사람(500)과 상호작용하고 있는 경우의 자세까지도 파악할 수 있는 장점을 가진다는 것을 알 수 있다. According to the present invention through FIG. 5, it can be seen that not only the robot 100 operates independently but also the posture when the robot 100 is interacting with the person 500. .

본 발명에 따르면 로봇(100)의 모터 및 센서를 이용한 자세 검출은 모터의 값만을 이용하여 할 수도 있고, 센서의 값만을 이용하여 할 수도 있고, 모터 및 센서 둘의 값을 모두 이용하여 할 수도 있다. According to the present invention, the posture detection using the motor and the sensor of the robot 100 may be performed using only the value of the motor, only the value of the sensor, or both the value of the motor and the sensor. .

도 6은 본 발명의 실시예에 따른 로봇(100)의 검출자세 및 예외자세에서 기준자세로의 복귀에 대한 개념을 설명하기 위한 도면이다. 6 is a view for explaining the concept of the return to the reference posture from the detection posture and exceptional posture of the robot 100 according to an embodiment of the present invention.

도시된 바와 같이, 로봇(100)의 유사자세그룹(610, 620)은 모터값이나 센서값이 해당 자세에 대응하여 설정된 값들과 완전히 일치하는 것은 아니지만, 그 값이 일정 범위 내의 값으로 같은 자세로 취급할 수 있는 자세그룹을 말한다. As shown, the similar posture groups 610 and 620 of the robot 100 do not completely match the values of the motor or sensor that are set corresponding to the posture, but the values are within the same range with the same posture. A posture group that can be handled.

즉, 로봇(100)이 앉아 있는 경우에도 모터 값이나 센서 값이 조금씩은 다를 수 있으므로 다양한 유사자세그룹을 사용자가 정의할 수 있다. 본 발명에서는 판단된 로봇의 자세를 검출자세(612, 622)라고 한다. 또한 본 발명에서 검출된 자세가 아주 특별한 자세, 즉 로봇(100)이 뒤집어져 있는 등 불안정한 상태를 예외자세(613, 623)라고 한다. That is, even when the robot 100 sits, the motor value or the sensor value may be slightly different, so that various similar posture groups may be defined by the user. In the present invention, the determined posture of the robot is referred to as detection postures 612 and 622. In addition, the posture detected in the present invention is a very special posture, that is, an unstable state such as the robot 100 is turned upside down is called an exception posture 613, 623.

본 발명에 의한 자세 수정 수단은 검출자세(612, 622)나 예외자세(613, 623)가 기준자세(611,621)가 되도록 수정하는 것을 말한다. 여기서 기준자세(611,621)란 유사자세그룹(610, 620)의 표준이 되는 자세, 즉 로봇(100)의 가장 안정된 앉아 있는 자세 등을 말한다. The posture correcting means according to the present invention refers to a correction so that the detection postures 612 and 622 and the exception postures 613 and 623 become the reference postures 611 and 621. Here, the reference postures 611 and 621 refer to a posture that becomes a standard for the similar posture groups 610 and 620, that is, the most stable sitting posture of the robot 100.

본 발명에서 검출자세(612, 622)나 예외자세(613, 623)에서 가장 가까운 기준자세(611,621)를 찾는 것은 모터값과 센서값의 벡터를 이용하여 두 벡터간의 거리가 가장 가까운 것을 찾는 방법을 이용할 수 있다. In the present invention, finding the reference postures 611, 621 closest to the detection postures 612 and 622 or the exception postures 613 and 623 is a method of finding the closest distance between two vectors using a vector of a motor value and a sensor value. It is available.

도 7은 본 발명의 바람직한 실시예에 따른 로봇의 자세검출방법을 도시한 흐름도이다. 7 is a flowchart illustrating a method of detecting a posture of a robot according to an exemplary embodiment of the present invention.

위에서 설명한 바와 같이, 로봇(100)은 부착된 모터들과 센서들을 통해 수집되는 정보에 기초하여 로봇((100)의 자세를 검출한다(S110). As described above, the robot 100 detects the attitude of the robot 100 based on the information collected through the attached motors and the sensors (S110).

자세를 검출한 후, 로봇(100)은 검출한 자세정보가 예외 자세인지를 판단한다(S120). After detecting the posture, the robot 100 determines whether the detected posture information is an exceptional posture (S120).

예외자세 판단 결과, 로봇(100)은 검출한 자세정보가 예외 자세이면, 예외자세인 검출한 자세정보와 가장 가까운 기준자세를 메모리(220)로부터 검출한 다(S130). As a result of the exceptional posture determination, if the detected attitude information is the exceptional attitude, the robot 100 detects the reference posture closest to the detected attitude information, which is the exceptional attitude, from the memory 220 (S130).

S120 단계에서 검출한 자세정보가 예외자세가 아닌 것으로 판단되면, 로봇(100)은 기준자세의 설정된 모터값과 검출한 자세정보의 모터값을 비교한다(S150). If it is determined that the detected posture information in step S120 is not an exceptional posture, the robot 100 compares the motor value of the reference posture with the motor value of the detected posture information (S150).

이때 로봇(100)은 기준자세의 설정된 모터값과 검출한 자세정보의 모터값이 모두 일치하는 지를 판별한다(S160). At this time, the robot 100 determines whether both the set motor value of the reference posture and the motor value of the detected posture information match (S160).

기준자세의 설정된 모터값과 검출한 자세정보의 모터값이 모두 일치하면, 로봇(100)은 S110 단계에서 검출한 자세가 로봇(100)의 정확한 자세임을 판단하고 수행주인 자세검출 동작을 종료한다(S170). When the set motor value of the reference posture and the motor value of the detected posture information all match, the robot 100 determines that the posture detected in step S110 is the correct posture of the robot 100 and ends the posture detecting operation performed by the performing master ( S170).

한편, S130 단계에서 예외자세인 검출한 자세정보와 가장 가까운 기준자세를 검출한 후, 또는 S160 단계에서 기준자세의 설정된 모터값과 검출한 자세정보의 모터값이 하나라도 일치하지 않으면, 로봇(100)은 메모리(220)에 저장된 모터값을 변경하고 다시 자세 검출 단계(S110)를 수행한다. On the other hand, after detecting the reference position closest to the posture information detected in the exceptional position in step S130, or if the motor value of the detected posture information and the set motor value of the reference posture in step S160 does not match any one, the robot 100 ) Changes the motor value stored in the memory 220 and performs the posture detection step S110 again.

이때, 이와 같은 단계가 반복될 수 있는데, 예를 들면, 로봇(100)이 뒤집어져 있는 상태에서 가장 가까운 기준자세로의 복귀를 시도하는데, 몇 번을 시도해도 기준자세로 복귀가 되지 않으면 로봇(100)이 가진 스피커나 LED, LCD 등과 같은 사용자 인터페이스를 통하여 사용자가 기준자세로 복귀시켜 줄 것을 요청할 수 있다. 이때 사용자가 안정된 자세로 복귀시켜 주기는 하나 완전한 기준자세는 되지 않을 수 있기 때문에, 그러한 경우에 위의 단계를 반복하면서 기준자세로의 복귀를 완료할 수 있다. 일반적으로 로봇(100)이 스피커나 LCD, LED등 외부 출력 장치를 가지 기 때문에, 본 발명에서는 로봇(100)이 스피커나 LCD, LED를 가진 경우를 도면에 따로 도시하지는 않았다. At this time, such a step may be repeated. For example, the robot 100 attempts to return to the nearest reference posture while the robot 100 is upside down. The user may request that the user return to the standard posture through the user interface such as the speaker, LED, and LCD. In this case, since the user may return to a stable posture but may not be a complete reference posture, the user may complete the return to the reference posture by repeating the above steps. In general, since the robot 100 has an external output device such as a speaker, an LCD, and an LED, in the present invention, a case in which the robot 100 has a speaker, an LCD, and an LED is not illustrated separately.

본 발명은 그 실시예에 따라 모터나 센서 값을 메모리(220)에 미리 값을 기억시켜 두고, 실제 로봇(100)의 움직임이 있을 때 이 값과 유사하거나 일치할 때 자세를 판단하게 할 수 있다(이하, 프로그램 자세검출방법이라 함). 또한, 본 발명은 다른 실시예에 따라 미리 해당 자세에 대응하는 값을 기억시켜 두지 않고 학습을 통해 자세를 판단할 수도 있다(이하, 학습 자세검출방법이라 함). According to the embodiment of the present invention, the motor or sensor values may be stored in advance in the memory 220, and the attitude may be judged when the motion or movement of the robot 100 is similar to or coincide with this value. (Hereinafter referred to as program posture detection method). In addition, according to another embodiment of the present invention, the posture may be determined through learning without storing a value corresponding to the posture in advance (hereinafter, referred to as a learning posture detection method).

도 12는 본 발명의 실시예에 따른 프로그램 자세검출방법에 따른 로봇의 자세 검출 수단 및 자세 수정 수단의 구성 예이다. 12 is a configuration example of a posture detecting means and a posture correcting means of a robot according to a program posture detecting method according to an embodiment of the present invention.

도 12에서 로봇제어유닛(200)의 메모리(220) 내에 있는 센서정보를 통한 상태수집 프로그램(221)이 로봇(100)에 부착된 모터나 센서 값을 읽어 와서 자세 검출 프로그램(224)으로 출력한다. In FIG. 12, the state collection program 221 through the sensor information in the memory 220 of the robot control unit 200 reads a motor or sensor value attached to the robot 100 and outputs it to the posture detection program 224. .

자세검출 프로그램(224)은 모터나 센서 값들의 조합과 그 조합일 때의 자세를 미리 메모리에 가지고 있다가, 상태수집 프로그램(221)으로부터 입력된 모터나 센서 값들과 비교해서 자세를 판단한다. The posture detection program 224 has a combination of motor and sensor values and a posture of the combination in a memory beforehand, and determines a posture by comparing the motor and sensor values input from the state collection program 221.

이때 자세가 기준 자세가 아닐 경우, 로봇(100)의 로봇제어유닛(200)은 자세 수정 프로그램(222)을 통해 기준자세로의 복귀를 시도하도록 한다. 자세 수정 수단에 대해서는 이후에 자세히 설명한다. In this case, when the posture is not the reference posture, the robot control unit 200 of the robot 100 attempts to return to the reference posture through the posture correcting program 222. The posture correction means will be described later in detail.

본 실시예에서 메모리(220)에 미리 기억된 로봇(100)의 자세 정보는 (모터값 벡터, 자세), (센서값벡터, 자세), (모터값 벡터, 센서값 벡터, 자세) 등이 될 수 있다. 즉, 본 실시예에서는 로봇(100)에 부착된 모터값만을 이용한 자세, 센서값만을 이용한 자세, 모터값과 센서값을 모두 이용한 자세를 자유롭게 구성할 수 있다. In this embodiment, the posture information of the robot 100 stored in advance in the memory 220 may be (motor value vector, posture), (sensor value vector, posture), (motor value vector, sensor value vector, posture), or the like. Can be. That is, in this embodiment, the posture using only the motor value attached to the robot 100, the posture using only the sensor value, and the posture using both the motor value and the sensor value can be freely configured.

예를 들어, 도 4의 상태를 센서 값만을 이용하여 프로그램할 경우, (센서값벡터, 자세)는 (160 상태값, 161 상태값, 162 상태값, …, 175 자세값, 자세값)로 나타낼 수 있다. 접촉센서1 또는 접촉센서2를 이용할 경우, (센서값벡터, 자세)는 (HUMAN_TOUCH, HUMAN_TOUCH, HUMAN_TOUCH, NO_TOUCH, …, NO_TOUCH, POSE1)과 같이 나타낼 수 있다. For example, when the state of FIG. 4 is programmed using only the sensor value, (sensor value vector, posture) is represented by (160 state value, 161 state value, 162 state value,…, 175 posture value, posture value). Can be. When using the contact sensor 1 or the contact sensor 2, (sensor value vector, attitude) can be expressed as (HUMAN_TOUCH, HUMAN_TOUCH, HUMAN_TOUCH, NO_TOUCH, ..., NO_TOUCH, POSE1).

또한, 이러한 경우에 사용하는 모터 값이나 센서 값의 경우 상기 예처럼 값들을 심볼화하여 사용할 수 있다. 또한, 모터의 경우 그룹 단위로 값을 심볼화할 수도 있는데, 예를 들면 각 발의 자세를 10개로 구분하고, 10개 중의 하나의 값으로 발 전체의 모터 값을 하나의 심볼화된 값으로 처리할 수도 있다. In addition, in the case of a motor value or a sensor value used in this case, the values may be symbolized as in the above example. In addition, in the case of a motor, it is also possible to symbolize the value in groups. For example, the position of each foot may be divided into ten, and one of the ten may be treated as a symbolized value. have.

모터의 경우 가장 기본적으로는 움직인 각도 같은 값을 그대로 사용할 수도 있다. 예를 들면, (angle1< value < angle2) 와 같이 검출된 값(value)이 두 값(angle1, angle2) 사이에 있는 것이라는 테스트를 수행할 수 있다. 이상과 같이 모터나 센서 값의 경우, 검출된 값 자체를 이용하거나, 그 값을 심볼화하거나, 그룹 단위로 값을 심볼화하여 이용할 수 있다. In the case of a motor, it can basically use the same value as the angle of movement. For example, a test may be performed that a detected value, such as (angle1 <value <angle2), is between two values, angle1 and angle2. As described above, in the case of a motor or a sensor value, the detected value itself may be used, the value may be symbolized, or the value may be symbolized in a group unit.

도 8 내지 도 11은 본 발명의 실시예에 따른 학습 자세검출방법에 따른 로봇의 자세 검출을 위한 구성 예를 설명하기 위한 도면이다. 8 to 11 are diagrams for explaining a configuration example for the posture detection of the robot according to the learning posture detection method according to an embodiment of the present invention.

도 8은 본 발명에 따른 학습을 이용한 로봇 자세 검출 방법 개념도를 도시한 도면이다. 8 is a conceptual diagram illustrating a robot posture detection method using learning according to the present invention.

도시된 바와 같이, 학습 자세검출방법은, 자세 학습을 시킬 때 로봇제어유닛(200)과 자세 검출 학습용 컴퓨터(300)가 인터페이스 케이블(310)로 연결되어 있어야 한다. As shown, in the learning posture detection method, when performing posture learning, the robot control unit 200 and the posture detection learning computer 300 should be connected to the interface cable 310.

이때 도 11에 나타난 상태수집 프로그램(221)에서 모터와 센서 값을 수집하여 도 8 및 도 9에 나타나 있는 자세 검출 학습용 컴퓨터(300)에 있는 자세 검출 학습 프로그램(400)에 수집된 모터와 센서 값들을 전달한다. At this time, the motor and sensor values are collected in the posture detection learning program 400 of the posture detection learning computer 300 shown in FIGS. 8 and 9 by collecting the motor and sensor values in the state collection program 221 shown in FIG. 11. Convey them.

도 9는 도 8의 본 발명에 따른 학습을 이용한 로봇 자세 검출 수단을 보다 상세히 도시한 도면이다. 9 is a view showing in more detail the robot posture detection means using the learning according to the invention of FIG.

도시된 바와 같이, 로봇(100)의 로봇제어유닛(200)과 통신을 수행하는 자세검출 학습용 컴퓨터(300)의 자세검출 학습 프로그램(400)은, 데이터 수집부(410), 학습 데이터(420), 학습 알고리즘(430), 및 학습결과모델(440)을 포함한다. As shown, the posture detection learning program 400 of the posture detection learning computer 300 to communicate with the robot control unit 200 of the robot 100, the data collection unit 410, the learning data 420 , A learning algorithm 430, and a learning result model 440.

데이터 수집부(410)는 로봇제어유닛(200)에서 전달된 데이터를 학습데이터(420)로서 저장을 하게 되고, 학습알고리즘(430)은 학습데이터(420)를 이용하여 자세 학습을 하고 그 결과를 학습결과모델(440)로 저장한다. The data collecting unit 410 stores the data transmitted from the robot control unit 200 as the learning data 420, and the learning algorithm 430 uses the learning data 420 to perform posture learning and the result. Save as learning result model 440.

학습을 하는 과정에서 사용자(사람, 500)가 개입이 되는데, 이것은 데이터를 수집하는 단계이다. 데이터를 수집하는 단계에서 단순히 모터값이나 센서 값을 읽어 와서 저장하면 되는 것이 아니라, 사용자가 이들 값들에 대한 로봇 자세를 입력해 주어야 한다. 이것은 기계학습의 단계에서는 통상적으로 개입이 되는 과정이므로 이 단계를 구체적으로 설명하지는 않는다. In the process of learning, a user (person, 500) is involved, which is the step of collecting data. Rather than simply reading and storing motor and sensor values in the data collection phase, the user must enter the robot posture for these values. This step is usually an intervention in the machine learning phase, so this step is not described in detail.

도 10은 본 발명의 실시예에 따른 로봇 자세 검출을 위한 학습 데이터 구성의 예를 도시한 도면이다. 10 is a diagram illustrating an example of a configuration of training data for detecting a robot posture according to an exemplary embodiment of the present invention.

도시된 바와 같이, 학습을 위한 데이터로 모터 상태값(421, 422, 423)과 센서 상태값(424, 425)을 이용하고, 그 결과로 로봇(100)의 자세(Pose, 426)를 얻는 구조로 되어 있다. As shown in the figure, the motor state values 421, 422, and 423 and the sensor state values 424 and 425 are used as data for learning, and as a result, the pose Pose 426 of the robot 100 is obtained. It is.

본 발명은 학습 데이터 구성을 단순히 도 10에 나타난 것과 같이 제한하지는 않는다. 학습 데이터는 모터나 센서의 값 그 자체를 이용할 수도 있고, 그 값들을 심볼화하여 사용할 수도 있고, 그룹 단위로 값을 심볼화하여 사용할 수도 있다. 이것에 대해서는 위에서 설명하였다. The present invention does not limit the learning data configuration simply as shown in FIG. The learning data may use the value of the motor or sensor itself, symbolize the values, or symbolize the values in groups. This has been described above.

도 11은 본 발명의 실시예에 따른 학습결과모델을 이용한 자세검출 수단 및 자세 수정 수단의 구성 예를 도시한 도면이다. 11 is a view showing an example of the configuration of the posture detection means and posture correction means using the learning result model according to an embodiment of the present invention.

도시된 바와 같이, 도 9에서 학습을 통해 도 9의 학습결과모델(440)이 만들어지면 이것의 복사본(441)을 로봇제어유닛(200) 내의 메모리(220)로 복사하여 자세 검출에 사용한다. As shown, when the learning result model 440 of FIG. 9 is made through learning in FIG. 9, a copy 441 of this is copied to the memory 220 in the robot control unit 200 and used for posture detection.

이때, 상태수집 프로그램(221)이 모터나 센서의 값을 읽어 와서 자세검출 프로그램(223)에 전달하면, 자세 검출 프로그램(223)은 학습결과모델(440)의 복사본(441)을 이용하여 로봇(100)의 자세를 검출한다. 이때 검출된 자세가 기준자세가 아닐 경우, 자세수정 프로그램(222)은 로봇(100)의 기준자세로의 복귀를 수행한다. 자세수정 수단 및 이를 통한 자세 수정 방법에 대해서는 도 6 및 도 7에 도시되어 있으므로 중복된 설명은 생략한다. At this time, when the state acquisition program 221 reads the value of the motor or sensor and transfers it to the posture detection program 223, the posture detection program 223 uses a copy 441 of the learning result model 440 to provide a robot ( 100 is detected. At this time, if the detected posture is not the reference posture, the posture correction program 222 returns to the reference posture of the robot 100. Since the posture correcting means and the posture correcting method are illustrated in FIGS. 6 and 7, redundant description thereof will be omitted.

이상에서는 본 발명에서 특정의 바람직한 실시예에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 및 균등한 타 실시가 가능할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부한 특허청구범위에 의해서만 정해져야 할 것이다. In the above, specific preferred embodiments of the present invention have been illustrated and described. However, the present invention is not limited to the above-described embodiments, and any person having ordinary skill in the art to which the present invention pertains may make various modifications and other equivalents without departing from the gist of the present invention attached to the claims. Implementation will be possible. Therefore, the true technical protection scope of the present invention should be defined only by the appended claims.

상술한 본 발명에 따르면, 로봇의 움직임을 검출하는 모터와, 사람의 접촉과 사물의 접촉을 구별할 수 있는 접촉센서를 통해 로봇의 자세를 검출함으로써, 보다 다양하게 로봇의 자세를 검출할 수 있고 사람과 접촉을 하면서 상호작용을 하는 로봇의 자세도 파악이 가능하다. According to the present invention described above, by detecting the position of the robot through a motor for detecting the movement of the robot and a contact sensor that can distinguish the contact between the human contact and the object, it is possible to detect the attitude of the robot in more various ways It is also possible to grasp the position of the interacting robot while in contact with a person.

또한, 본 발명의 로봇의 자세 검출 장치 및 그 방법에 따르면 사람의 접촉과 사물의 접촉을 구분할 수 있는 접촉센서를 통해 로봇이 독자적으로 동작하고 있는 상태에서의 로봇의 자세뿐만 아니라 로봇과 사람이 상호접촉을 하고 있는 상태에서의 로봇의 자세도 검출할 수 있다. 이것은 특히 애완형/동물형 로봇을 어린이가 인형과 같은 것으로 생각하여 로봇과의 접촉을 많이 하게 되는 경우에도 로봇의 자세를 정확히 파악할 수 있게 하므로, 보다 지능적인 로봇 응용 개발이 가능하다. In addition, according to the robot posture detection device and method of the present invention, the robot and the person mutual as well as the robot's posture in a state in which the robot operates independently through a contact sensor that can distinguish the contact between the person and the object. The attitude of the robot in the contact state can also be detected. This makes it possible to accurately understand the attitude of the robot even when the pet / animal robot is regarded as a doll and the children make a lot of contact with the robot, thus enabling more intelligent robot application development.

뿐만 아니라, 본 발명에 의하면 로봇의 자세를 검출한 뒤에 그 자세가 불안정한 자세이면 안정한 기준자세로의 복귀를 할 수 있도록 하고, 더불어 여러 번의 시도에도 불구하고 안정한 기준자세로의 복귀가 이루어지지 않으면 사람에게 로봇에 부착된 출력수단을 통해 기준자세로의 복귀를 위한 도움을 요청할 수 있도록 함으로써, 로봇이 불안정한 상태가 지속됨으로 인해 발행할 수 있는 로봇의 오작동이나 고장 또는 사고 등을 미연에 방지할 수 있다.In addition, according to the present invention, if the posture of the robot is detected after the posture of the robot is unstable, it is possible to return to a stable reference posture. By allowing the robot to request help for returning to the standard posture through the output means attached to the robot, it is possible to prevent a malfunction, failure or accident of the robot that may be issued due to the unstable state of the robot. .

Claims (19)

로봇에 분산 배치되어, 상기 로봇의 움직임을 수정하고 움직임 정보를 제공하는 복수의 모터; A plurality of motors disposed in a robot and configured to correct movement of the robot and provide movement information; 상기 로봇에 분산 배치되어, 상기 로봇에 대한 사용자 또는 사물의 접촉 상태를 검출하고 접촉 정보를 제공하는 복수의 접촉센서; 및 A plurality of touch sensors distributed in the robot and detecting contact states of a user or an object with the robot and providing contact information; And 미리 프로그램된 자세 값과 상기 움직임 정보와 상기 접촉 정보를 비교하여 상기 로봇의 자세를 검출하거나, 외부의 장치로부터 제공되는 자세 학습 모델에 따라 상기 움직임 정보와 상기 접촉 정보를 분석하여 상기 로봇의 자세를 검출하는 로봇제어부를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. The posture of the robot is detected by comparing a pre-programmed posture value with the motion information and the contact information, or by analyzing the motion information and the contact information according to a posture learning model provided from an external device. A robot position detection apparatus comprising a robot control unit for detecting. 제 1항에 있어서, The method of claim 1, 상기 모터는, The motor, 상기 모터의 동작을 제어하는 프로세싱부; 및 A processing unit controlling an operation of the motor; And 상기 모터와 상기 로봇제어부의 통신 인터페이스를 제공하여 상기 모터의 동작에 따른 상기 로봇의 움직임을 검출하여 상기 로봇제어부에 제공하는 드라이버를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And a driver for providing a communication interface between the motor and the robot controller to detect a movement of the robot according to the operation of the motor and to provide the driver to the robot controller. 제 1항에 있어서, The method of claim 1, 상기 접촉센서는, The contact sensor, 열에 대한 감지 및 습도에 대한 감지 기능을 함께 갖는 제1 접촉 센서; A first contact sensor having a function of sensing heat and a sensing function of humidity; 상기 열에 대한 감지 기능을 갖는 제2 접촉 센서; 및 A second contact sensor having a heat sensing function; And 외부 접촉 여부에 대한 감지 기능을 갖는 제3 접촉 센서 중 어느 하나가 적용되는 것을 특징으로 하는 로봇의 자세 검출 장치. Apparatus for detecting the attitude of the robot, characterized in that any one of the third contact sensor having a sensing function for the external contact is applied. 제 3항에 있어서,The method of claim 3, wherein 상기 제1 접촉 센서는, The first contact sensor, 인체가 접촉된 경우, 사물이 접촉된 경우, 상기 인체가 근접해 있지만 접촉되지 않은 경우, 및 상기 인체 및 사물이 근접해 있지도 않고 접촉 되지 않은 경우를 구분하여 상기 접촉 감지를 수행하는 것을 특징으로 하는 로봇의 자세 검출 장치. When the human body is in contact, when the object is in contact, the human body is in close proximity but not in contact, and the human body and the object is not in close proximity or not in contact with the robot characterized in that for performing the touch detection Posture detection device. 제 3항에 있어서, The method of claim 3, wherein 상기 제2 접촉 센서는, The second contact sensor, 인체가 접촉된 경우, 사물이 접촉된 경우, 상기 인체가 근접해 있지만 접촉되지 않은 경우, 및 상기 인체가 근접해 있지도 않고 접촉 되지 않은 경우를 구분하여 상기 접촉 감지를 수행하는 것을 특징으로 하는 로봇의 자세 검출 장치. When the human body is in contact, when the object is in contact, the human body is close but not in contact with the body, the human body is not close to the contact is not detected by detecting the posture of the robot, characterized in that Device. 제 3항에 있어서, The method of claim 3, wherein 상기 제3 접촉 센서는, The third contact sensor, 인체 또는 사물이 접촉된 경우, 및 상기 인체 또는 사물이 접촉되지 않은 경우를 구분하여 상기 접촉 감지를 수행하는 것을 특징으로 하는 로봇의 자세 검출 장치. And detecting the contact by classifying a case where a human body or an object is touched and a case where the human body or an object is not touched. 제 1항에 있어서, The method of claim 1, 상기 로봇제어부는, 상기 로봇의 자세를 검출할 때, The robot controller, when detecting the posture of the robot, 상기 모터의 값만을 이용하는 경우, 상기 센서의 값만을 이용하는 경우, 및 상기 모터와 센서의 값을 함께 이용하는 경우 중 어느 하나를 통해 상기 로봇의 자세를 검출하는 것을 특징으로 하는 로봇의 자세 검출 장치. And the position of the robot is detected by any one of using only the value of the motor, using only the value of the sensor, and using both the value of the motor and the sensor. 제 1항에 있어서, The method of claim 1, 상기 로봇제어부는, 상기 로봇의 자세를 검출할 때, The robot controller, when detecting the posture of the robot, 상기 미리 프로그램된 자세 값과 상기 모터 및 접촉 센서를 통해 현재 검출된 값을 비교하여 상기 로봇의 자세를 검출하는 프로그램 자세 검출방식; 및 A program posture detection method for detecting a posture of the robot by comparing the pre-programmed posture value with a value currently detected through the motor and the contact sensor; And 상기 외부의 장치로부터 제공되는 자세 학습 모델에 따라 상기 모터 및 접촉 센서를 통해 현재 검출된 값을 분석하여 상기 로봇의 자세를 검출하는 학습 자세 검출방식 중 어느 하나를 이용하는 것을 특징으로 하는 로봇의 자세 검출 장치. Posture detection of the robot, characterized in that using any one of the learning posture detection method for detecting the posture of the robot by analyzing the current value detected by the motor and the contact sensor according to the posture learning model provided from the external device Device. 제 8항에 있어서, The method of claim 8, 상기 로봇제어부는, 상기 프로그램 자세 검출방식을 이용하는 경우, When the robot control unit uses the program attitude detection method, 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들을 수집하는 상태정보 수집부; 및 A state information collecting unit collecting information detected from the motor and the contact sensor; And 상기 상태정보 수집부를 통해 수집된 정보를 기 설정된 로봇의 자세정보에 따라 분석하여 현재 로봇의 자세를 검출하는 자세 검출부를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And a posture detection unit configured to detect the posture of the current robot by analyzing the information collected by the state information collection unit according to the preset posture information of the robot. 제 9항에 있어서, The method of claim 9, 상기 로봇제어부는, The robot control unit, 상기 자세 검출부의 검출자세가 예외자세이면, 상기 로봇의 자세를 상기 검출자세 또는 상기 예외자세와 가장 유사한 기준자세로 수정하는 자세 수정부를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And a posture correcting unit configured to correct the posture of the robot to a reference posture most similar to the posture of the posture or the exceptional posture, when the posture detection unit detects the posture of the posture. 제 8항에 있어서, The method of claim 8, 상기 로봇제어부는, 상기 학습 자세 검출방식을 이용하는 경우, When the robot control unit uses the learning posture detection method, 자세검출 학습용 디바이스로부터 학습을 통해 얻어진 상기 로봇의 학습결과모델을 제공 받아 저장하는 저장부; A storage unit for receiving and storing a learning result model of the robot obtained through learning from a posture detection learning device; 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들을 수집하는 상태정보 수집부; 및 A state information collecting unit collecting information detected from the motor and the contact sensor; And 상기 저장된 학습결과모델에 기초하여, 상기 수집한 정보들에 대응하는 상기 로봇의 자세를 검출하는 자세 검출부를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And a posture detection unit configured to detect postures of the robots corresponding to the collected information based on the stored learning result models. 제 11항에 있어서, The method of claim 11, 상기 로봇제어부는, The robot control unit, 상기 자세 검출부의 검출 자세가 예외자세이면, 상기 로봇의 자세를 상기 검출자세 또는 상기 예외자세와 가장 유사한 기준자세로 수정하는 자세 수정부를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And a posture correcting unit configured to modify the posture of the robot to a reference posture most similar to the posture of the posture or the exceptional posture, when the posture of the posture detecting unit is an exceptional posture. 제 12항에 있어서, The method of claim 12, 상기 학습결과모델은, The learning result model, 상기 모터의 상태값들을 입력으로 하고 그 때의 상기 로봇 자세; The robot posture at the time of inputting state values of the motor; 상기 모터의 상태값들과 상기 접촉 센서의 값들을 모두 입력으로 하고 그 때의 상기 로봇 자세; 및 The robot posture at the time of inputting both the state values of the motor and the values of the contact sensor; And 상기 접촉 센서의 값들을 입력으로 하고 그 때의 상기 로봇 자세 중 적어도 어느 하나의 모델을 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And the at least one model of the robot posture at that time as values of the touch sensor as inputs. 제 13항에 있어서, The method of claim 13, 상기 모터의 상태값은, The state value of the motor, 상기 모터의 상태값 그 자체, 상기 모터의 상태값을 심볼화한 값, 및 상기 모터의 그룹 단위 상태값을 심볼화한 값 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 로봇의 자세 검출 장치. And at least one of a state value of the motor itself, a value symbolized by the state value of the motor, and a value symbolized by the group unit state value of the motor. 제 10항 또는 제 12항에 있어서, The method of claim 10 or 12, 상기 자세 수정부는, The posture correction unit, 상기 모터의 상태값을 통해 상기 모터의 동작을 제어함으로써 상기 로봇의 자세를 수정하는 것을 특징으로 하는 로봇의 자세 검출 장치. Posture detection device of the robot, characterized in that for modifying the attitude of the robot by controlling the operation of the motor through the state value of the motor. 제 15항에 있어서, The method of claim 15, 상기 자세 수정부는, The posture correction unit, 상기 로봇의 자세가 상기 기준자세로 수정되지 않으면, 사용자 인터페이스를 통하여 사용자에게 상기 로봇의 자세를 수동으로 수정하여 줄 것을 요청하는 것을 특징으로 하는 로봇의 자세 검출 장치. If the posture of the robot is not corrected to the reference position, the posture detection device of the robot, characterized in that for requesting the user to manually modify the posture of the robot through a user interface. 로봇에 분산 배치된 복수의 모터를 통해 상기 모터의 상태값에 기초하여 상기 로봇의 움직임 정보를 검출하는 단계; Detecting movement information of the robot based on a state value of the motor through a plurality of motors distributed in the robot; 상기 로봇에 분산 배치되어, 상기 로봇에 대한 사용자 또는 사물의 접촉 정보를 검출하는 단계; 및 Distributedly disposed on the robot to detect contact information of a user or an object with respect to the robot; And 미리 프로그램된 자세 값과 상기 움직임 정보와 상기 접촉 정보를 비교하여 상기 로봇의 자세를 검출하거나, 외부의 장치로부터 제공되는 자세 학습 모델에 따라 상기 움직임 정보와 상기 접촉 정보를 분석하여 상기 로봇의 자세를 검출하는 단계를 포함하는 것을 특징으로 하는 로봇의 자세 검출 방법. The posture of the robot is detected by comparing a pre-programmed posture value with the motion information and the contact information, or by analyzing the motion information and the contact information according to a posture learning model provided from an external device. Posture detection method of a robot comprising the step of detecting. 제 17항에 있어서, The method of claim 17, 상기 로봇의 검출자세가 예외자세인지를 판별하는 단계; Determining whether the detection posture of the robot is an exception posture; 상기 검출자세가 상기 예외자세이면, 상기 검출자세 또는 상기 예외자세가 포함되는 유사자세그룹의 기준자세를 계산하는 단계; 및 If the detection posture is the exceptional posture, calculating the reference posture of the similar posture group including the detection posture or the exceptional posture; And 상기 검출자세에 따른 상기 모터의 상태값을 상기 기준자세에 대응하는 값으로 변경하는 단계를 더 포함하는 것을 특징으로 하는 로봇의 자세 검출 방법. And changing the state value of the motor according to the detection posture to a value corresponding to the reference posture. 제 18항에 있어서, The method of claim 18, 상기 검출자세가 상기 예외자세가 아니면, 상기 기준자세와 상기 검출자세에 따른 모터의 상태값이 일치하는 지를 판별하는 단계; 및 If the detection posture is not the exceptional posture, determining whether the reference posture matches the state value of the motor according to the posture posture; And 상기 기준자세와 상기 검출자세에 따른 모터의 상태값이 일치하지 않으면, 상기 검출한 로봇의 자세에 따른 상기 모터의 상태값을 상기 기준자세에 대응하는 값으로 변경하는 단계를 더 포함하는 것을 특징으로 하는 로봇의 자세 검출 방법. If the state value of the motor according to the reference posture and the detection posture do not match, changing the state value of the motor according to the detected posture of the robot to a value corresponding to the reference posture. Robot posture detection method.
KR1020060119903A 2006-11-30 2006-11-30 Apparatus and Method for detecting pose of robot KR100862190B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020060119903A KR100862190B1 (en) 2006-11-30 2006-11-30 Apparatus and Method for detecting pose of robot
PCT/KR2007/005799 WO2008066273A1 (en) 2006-11-30 2007-11-19 Apparatus and method for detecting posture of robot
JP2009539177A JP2010510895A (en) 2006-11-30 2007-11-19 Robot posture detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060119903A KR100862190B1 (en) 2006-11-30 2006-11-30 Apparatus and Method for detecting pose of robot

Publications (2)

Publication Number Publication Date
KR20080049396A KR20080049396A (en) 2008-06-04
KR100862190B1 true KR100862190B1 (en) 2008-10-09

Family

ID=39468027

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060119903A KR100862190B1 (en) 2006-11-30 2006-11-30 Apparatus and Method for detecting pose of robot

Country Status (3)

Country Link
JP (1) JP2010510895A (en)
KR (1) KR100862190B1 (en)
WO (1) WO2008066273A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103513768B (en) * 2013-08-30 2016-08-24 展讯通信(上海)有限公司 A kind of control method based on mobile terminal attitudes vibration and device, mobile terminal
CN105094160A (en) * 2014-11-18 2015-11-25 芜湖蓝宙电子科技有限公司 Vertical balanced robot
JP2020147604A (en) * 2020-06-17 2020-09-17 テックフィールズ インコーポレイテッド Nsaia prodrug having very fast skin- and film-infiltration rate, and new use thereof as medicine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010025103A (en) * 1998-11-30 2001-03-26 이데이 노부유끼 Robot device and control method thereof
JP2002052489A (en) * 2000-08-11 2002-02-19 Yamaha Motor Co Ltd Contact object identification device and contact state identification device
KR100515276B1 (en) 2001-06-07 2005-09-15 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 Two-leg walking humanoid robot
JP2006167841A (en) 2004-12-14 2006-06-29 Honda Motor Co Ltd Control device of legged robot

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0780790A (en) * 1993-09-16 1995-03-28 Fujitsu Ltd Three-dimensional object grasping system
JP3199059B2 (en) * 1998-06-09 2001-08-13 ソニー株式会社 Robot apparatus and attitude control method thereof
JP2002239952A (en) * 2001-02-21 2002-08-28 Sony Corp Robot device, action control method for robot device, program, and recording medium
JP3522741B2 (en) * 2002-03-15 2004-04-26 ソニー株式会社 Motion control device and motion control method for legged mobile robot, and robot device
JP2004357915A (en) * 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd Sensing toy

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010025103A (en) * 1998-11-30 2001-03-26 이데이 노부유끼 Robot device and control method thereof
JP2002052489A (en) * 2000-08-11 2002-02-19 Yamaha Motor Co Ltd Contact object identification device and contact state identification device
KR100515276B1 (en) 2001-06-07 2005-09-15 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 Two-leg walking humanoid robot
JP2006167841A (en) 2004-12-14 2006-06-29 Honda Motor Co Ltd Control device of legged robot

Also Published As

Publication number Publication date
WO2008066273A1 (en) 2008-06-05
JP2010510895A (en) 2010-04-08
KR20080049396A (en) 2008-06-04

Similar Documents

Publication Publication Date Title
US11345041B2 (en) Robot device, method of controlling the same, computer program, and robot system
Brooks et al. Sensing and manipulating built-for-human environments
Hyon Compliant terrain adaptation for biped humanoids without measuring ground surface and contact forces
DK2740012T3 (en) ROBOT WITH LEDS WITH VARIABLE STRENGTH AND PROCEDURE FOR CALCULATING THE OPTIMAL STIGNESS
JP6007908B2 (en) Humanoid robot with fall management ability and method for managing fall
Edsinger et al. Manipulation in human environments
EP3316735A1 (en) Motion control seat input device
US11642780B2 (en) Monitoring of surface touch points for precision cleaning
TWI750939B (en) Method for controlling robot to get out of trap, robot, electronic device and computer-readable storage medium
JP4810880B2 (en) Robot and its control method
KR100862190B1 (en) Apparatus and Method for detecting pose of robot
CN112223283A (en) Robot arm, robot arm control method, processing apparatus, and medium
WO2004085121A1 (en) Robot device and method of controlling the same
JP2007152472A (en) Charging system, charging station and robot guidance system
Bolder et al. Visually guided whole body interaction
JP7172399B2 (en) Control device, robot, control method and program
KR20140054589A (en) Apparatus for providing robot control and method therefor
KR20200024875A (en) How to move an exoskeleton
JP2004306249A (en) Diagnostic instrument of stereo camera carried on robot and diagnostic method of stereo camera carried on robot device
Lee et al. A self-reliance assistive tool for disable people
JP2006247800A (en) Control device for leg type movement robot
Marin-Urias et al. Geometric tools for perspective taking for human–robot interaction
JP2007069303A (en) Communication robot
Zhou et al. Hands to hexapods, wearable user interface design for specifying leg placement for legged robots
CN114237233B (en) Robot chess playing method and device, computer readable storage medium and robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120928

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140401

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140917

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151001

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160923

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee