KR100862190B1 - Apparatus and Method for detecting pose of robot - Google Patents
Apparatus and Method for detecting pose of robot Download PDFInfo
- Publication number
- KR100862190B1 KR100862190B1 KR1020060119903A KR20060119903A KR100862190B1 KR 100862190 B1 KR100862190 B1 KR 100862190B1 KR 1020060119903 A KR1020060119903 A KR 1020060119903A KR 20060119903 A KR20060119903 A KR 20060119903A KR 100862190 B1 KR100862190 B1 KR 100862190B1
- Authority
- KR
- South Korea
- Prior art keywords
- posture
- robot
- motor
- contact
- value
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000001514 detection method Methods 0.000 claims abstract description 69
- 230000036544 posture Effects 0.000 claims description 297
- 230000006870 function Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 5
- 210000002683 foot Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 210000004744 fore-foot Anatomy 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
Abstract
본 발명은 모터와 접촉센서를 통해 검출된 값을 이용하여 로봇의 자세를 검출할 수 있는 로봇의 자세 검출 장치 및 그 방법에 관한 것이다. 본 발명의 로봇 자세 검출 장치는, 로봇에 부착되어 상기 로봇의 움직임을 검출하는 복수의 모터, 상기 로봇에 부착되어 상기 로봇에 대한 사용자 및 사물의 접촉을 구별하는 복수의 접촉센서, 및 상기 모터 및 접촉센서를 통해 검출되는 정보에 기초하여 상기 로봇의 자세를 검출하는 로봇제어부를 포함하며, 이에 의해, 보다 다양하게 로봇의 자세를 검출할 수 있고 사람과 접촉을 하면서 상호작용을 하는 로봇의 자세도 파악이 가능하다. The present invention relates to a robot posture detection device and a method for detecting a robot posture using values detected through a motor and a contact sensor. The apparatus for detecting a robot posture of the present invention includes a plurality of motors attached to a robot to detect movement of the robot, a plurality of contact sensors attached to the robot to distinguish a contact between a user and an object with the robot, and the motor; It includes a robot control unit for detecting the posture of the robot based on the information detected through the contact sensor, whereby the posture of the robot that can detect the posture of the robot in a variety of ways and interacts while contacting a person It can be grasped.
로봇, 자세, 검출, 모터, 센서, 접촉, 기준, 학습, 사람, 사용자, 사물 Robot, posture, detection, motor, sensor, contact, criteria, learning, person, user, object
Description
도 1은 본 발명의 바람직한 실시예에 따른 로봇에 대한 모터 및 센서의 부착 예를 도시한 도면, 1 is a view showing an example of attachment of a motor and a sensor to a robot according to a preferred embodiment of the present invention,
도 2는 본 발명의 실시예에 따른 로봇 내에 로봇제어유닛이 부착된 형태의 예를 도시한 도면, 2 is a view showing an example of the form attached to the robot control unit in the robot according to an embodiment of the present invention,
도 3은 본 발명의 실시예에 따라 로봇(100)에 구비되는 로봇제어유닛, 모터부를 포함하는 모터집합부, 및 센서부의 네트워크 연결 구성 예를 도시한 도면, 3 is a diagram illustrating an example of a network connection configuration of a robot control unit provided in a
도 4 및 도 5는 본 발명의 실시예에 따른 로봇과 사람의 접촉 예를 도시한 도면, 4 and 5 illustrate an example of contact between a robot and a person according to an embodiment of the present invention;
도 5는 본 발명의 실시예에 따른 로봇과 사람의 상호작용 및 그 상황의 로봇의 자세 검출을 위한 다른 예를 도시한 도면, FIG. 5 is a diagram illustrating another example for detecting a robot's interaction with a person and a robot's posture in a situation according to an embodiment of the present invention; FIG.
도 6은 본 발명의 실시예에 따른 로봇의 검출자세 및 예외자세에서 기준자세로의 복귀에 대한 개념을 설명하기 위한 도면, 6 is a view for explaining the concept of the return to the reference posture from the detection posture and exceptional posture of the robot according to an embodiment of the present invention,
도 7은 본 발명의 바람직한 실시예에 따른 로봇의 자세검출방법을 도시한 흐름도, 7 is a flowchart illustrating a method of detecting a posture of a robot according to a preferred embodiment of the present invention;
도 8 내지 도 11은 본 발명의 실시예에 따른 학습 자세검출방법에 따른 로봇 의 자세 검출을 위한 구성 예를 설명하기 위한 도면, 그리고 8 to 11 are views for explaining a configuration example for the posture detection of the robot according to the learning posture detection method according to an embodiment of the present invention, and
도 12는 본 발명의 실시예에 따른 프로그램 자세검출방법에 따른 로봇의 자세 검출 수단 및 자세 수정 수단의 구성 예를 도시한 도면이다. 12 is a diagram showing an example of the configuration of the posture detecting means and the posture correcting means of the robot according to the program posture detection method according to an embodiment of the present invention.
본 발명은 자세 변형이 가능한 로봇에 관한 것으로서, 보다 상세하게는 자세 변형이 가능한 로봇의 움직임에 따른 해당 자세를 검출하기 위한 로봇의 자세 검출 장치 및 그 방법에 관한 것이다. The present invention relates to a robot capable of modifying a posture, and more particularly, to an apparatus and method for detecting a posture of a robot for detecting a corresponding posture according to a movement of a robot capable of modifying a posture.
일반적으로, 로봇은 사람이 수행하기 힘든 작업, 예를 들어 무거운 물건을 운반하는 작업이나 고도의 정밀도를 필요로 하는 작업 또는 고온/저온의 작업 환경에서 해당 작업을 수행해야하는 산업현장에서 주로 사용되어진다. In general, robots are often used in jobs that are difficult for humans to perform, for example, to transport heavy objects, to work that requires a high degree of precision, or in industrial sites where the work must be performed in high or low temperature working environments. .
최근에는 산업분야에서 정해진 산업용 작업을 수행하는 산업용 로봇 분야에서 벗어나, 가정용 로봇, 애완용 로봇, 인명구조로봇, 인조인간 로봇 등의 비산업형 로봇이 등장하고 있다. 그 중에서도 사람이 주거하는 환경에서 사람과 함께 생활하면서 사용자와 함께 대화를 수행하거나 사용자의 일을 도와주는 인터렉티브(interactive)가 가능한 로봇에 대한 연구가 보다 활발하게 진행되고 있다. Recently, non-industrial robots such as home robots, pet robots, lifesaving robots, and artificial human robots have emerged from the field of industrial robots performing industrial tasks specified in the industrial field. Among them, researches on interactive robots that can live with people in a residential environment and communicate with users or help users work are being actively conducted.
산업용 로봇에 비해 인조인간 로봇은 사람과 비슷한 모양과 움직임의 자유도를 가지도록 개발되고 있다. 특히 인조인간 로봇은 사람과 같이 머리와 몸통, 및 두 팔과 두 다리가 사람과 유사하게 구비된 형태를 취한다. Compared to industrial robots, artificial robots are developed to have similar shapes and freedom of movement as humans. In particular, the artificial robot takes the form of a head, a torso, and arms and legs similar to a human like a human.
이러한 인조인간 로봇은 스스로 움직여야 하므로 많은 기술이 요하고 있으며, 특히 움직임을 제어하기 위한 보다 정확한 로봇의 자세 검출 기법이 요구된다. Since these artificial robots must move by themselves, many technologies are required, and in particular, a more accurate robot posture detection technique for controlling movement is required.
이하, 로봇의 자세 제어와 관련하여 공지된 특허를 소개한다. Hereinafter, known patents related to attitude control of a robot will be introduced.
한국 공개특허번호 2004-0108526(2004.12.24) "각식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치"는, 다수의 관절 자유도를 갖는 각식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치에 관한 내용을 기술하고 있다. 이 특허 발명은 직립 자세를 갖는 각식 이동 로봇의 동작 제어 장치와 제어 방법 및 이들을 이용한 로봇 장치를 제공하는 것으로, 직립 보행에 가속도 센서, 자세 센서 등을 부착하여 (Zero Movement Point: ZMP) 알고리즘을 이용하여 자세 안정도를 판별하여 이를 자세 안정화에 활용하는 것이다. Korean Patent Laid-Open No. 2004-0108526 (2004.12.24) "Motion control device and motion control method and robot device for an angle mobile robot" is a motion control device and motion control method and robot device for each mobile robot having a plurality of joint degrees of freedom. Describes the content of This patent invention provides a motion control device and control method for an angle mobile robot having an upright posture, and a robot device using the same. The acceleration movement, a posture sensor, and the like are attached to an upright walk using a (Zero Movement Point: ZMP) algorithm. It is to determine posture stability and use it for posture stabilization.
한국 공개특허번호 2005-0002302(2005.01.07) "이족보행로봇의 실시간 자세제어 장치 및 방법"은 이족 보행 로봇의 전후 기울기와 좌우 기울기를 측정하여 실시간 자세를 제어하는 것을 목적으로 하며, 이를 위해 이족 보행 로봇의 전후 기울기와 좌우 기울기를 해당 축 방향의 기울기를 검출하는 일축 또는 이출 기울기 센서를 이용하여 이족 보행 로봇의 자세를 실시간 제어하는 방법을 개시하고 있다. Korean Patent Laid-Open Publication No. 2005-0002302 (2005.01.07) "A real-time attitude control apparatus and method of biped walking robot" aims to control real-time posture by measuring the front and rear tilt and left and right tilt of biped walking robot. Disclosed is a method for real-time control of the posture of a biped walking robot using a single-axis or an inclined tilt sensor that detects the tilt of the walking robot in front of and behind the left and right tilts.
상기 두 선행 특허는 주로 이족 보행 로봇을 그 대상으로 하고 있으며, 자세 제어를 위해 가속도 센서, 자세 센서, 기울기 센서 등을 이용하고 수학적 계산을 통해 안정된 자세를 취하는 방법을 제공하고 있다. The two prior patents mainly target biped walking robots, and provide a method of using a acceleration sensor, a posture sensor, a tilt sensor, and the like to take a stable posture through mathematical calculations for posture control.
한국 공개특허번호 2001-0022664(2001.03.26) "로봇 장치 및 그 자세 제어 방법"은 로봇이 정상의 상태가 아닌 다른 상이한 자세가 된 것을 파악하여 정상의 상태로 복귀하는 것을 목표로 가속도 센서의 출력에 의해 얻어지는 가속도 정보에 따라 로봇의 자세 상태가 정상의 상태가 아닌 상이한 상태임을 파악하여 복귀하는 방법을 제시하고 있으며, 접촉 센서의 상태 정보도 자세 파악에 활용가능하다고 언급하고 있다. Korean Patent Laid-Open Publication No. 2001-0022664 (2001.03.26) "Robot device and its attitude control method" is an output of an acceleration sensor that aims to return to a normal state by detecting that the robot has a different posture than a normal state. According to the acceleration information obtained by the present invention, it suggests a method of retrieving and returning that the attitude state of the robot is different from the normal state, and states that the state information of the contact sensor can also be used for attitude estimation.
그런데, 상기와 같은 기존의 발명들은 로봇이 독자적으로 움직이는 상태에서의 자세 파악하는 것을 제공하는 것일 뿐, 로봇이 사람과 접촉하면서 상호 교감하는 중에 로봇의 자세를 파악하는 것에 대해서는 언급하고 있지 않고 있다. 예를 들어, 사람이 로봇을 안고 있는 상태와 같은 로봇 자세 검출이 중요한 상황에서 로봇의 자세를 파악할 수 있는 방법이 요구된다. However, the existing inventions as described above only provide the grasp of the posture in a state in which the robot moves independently, and do not mention the grasp of the posture of the robot while the robot is in contact with each other. For example, there is a need for a method of identifying a robot's posture in a situation in which a robot posture detection is important, such as a human holding a robot.
한국 공개특허번호 '2001-0022664'에서는 자세 판단을 위해 접촉 센서를 이용할 수 있다고 언급하고 있으나, 이는 단순히 어디에 닿았다는 것만을 알 수 있을 뿐 사람과 로봇이 접촉하면서 상호 작용하는 상황에서의 로봇 자세 파악은 불가능하다는 문제점이 있다. Korean Patent Publication No. 2001-0022664 mentions that a touch sensor can be used to determine posture, but it can only know where it has been touched, and grasp the robot posture in a situation where a human and a robot interact with each other. Has the problem that is impossible.
상기와 같은 문제점을 해결하기 위한 본 발명의 제1 목적은, 외부 접촉에 대해 보다 용이하게 로봇의 자세를 검출할 수 있는 로봇 자세 검출 장치 및 그 방법을 제공하는 데 있다. A first object of the present invention for solving the above problems is to provide a robot posture detection device and method that can detect the posture of the robot with respect to external contact more easily.
본 발명의 제2 목적은, 사람이 로봇을 안고 있는 상태와 같은 로봇이 사람과 접촉하면서 보다 용이하게 상호 교감할 수 있도록 로봇의 자세 검출 장치 및 그 방법을 제공하는 데 있다. It is a second object of the present invention to provide a robot posture detection device and a method for allowing a robot such as a state in which a person is holding a robot to interact with each other more easily.
본 발명의 제3 목적은, 로봇이 접촉된 외부 접촉물과 보다 용이한 상호작용을 위한 로봇의 자세 검출 장치 및 그 방법을 제공하는 데 있다. A third object of the present invention is to provide an apparatus and method for detecting a posture of a robot for easier interaction with an external contact with which the robot is in contact.
상기와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 로봇의 자세 검출 장치는, 로봇에 부착되어 상기 로봇의 움직임을 검출하는 복수의 모터; 상기 로봇에 부착되어 상기 로봇에 대한 사용자 및 사물의 접촉을 구별하는 복수의 접촉센서; 및 상기 모터 및 접촉센서를 통해 검출되는 정보에 기초하여 상기 로봇의 자세를 검출하는 로봇제어부를 포함한다. An apparatus for detecting a posture of a robot according to an embodiment of the present invention for achieving the above object includes: a plurality of motors attached to the robot to detect movement of the robot; A plurality of contact sensors attached to the robot to distinguish a contact between a user and an object with respect to the robot; And a robot controller configured to detect the attitude of the robot based on information detected by the motor and the contact sensor.
바람직하게는, 상기 모터는, 상기 모터의 동작을 제어하는 프로세싱부; 및 상기 모터와 상기 로봇제어부의 통신 인터페이스를 제공하여 상기 모터의 동작에 따른 상기 로봇의 움직임을 검출하여 상기 로봇제어부에 제공하는 드라이버를 포함한다. Preferably, the motor, the processing unit for controlling the operation of the motor; And a driver that provides a communication interface between the motor and the robot controller to detect a movement of the robot according to the operation of the motor and provide the robot to the robot controller.
상기 접촉센서는, 열에 대한 감지 및 습도에 대한 감지 기능을 함께 갖는 제1 접촉 센서; 상기 열에 대한 감지 기능을 갖는 제2 접촉 센서; 및 외부 접촉 여부에 대한 감지 기능을 갖는 제3 접촉 센서 중 어느 하나가 적용된다. The touch sensor may include a first contact sensor having a function of sensing heat and a sensing function of humidity; A second contact sensor having a heat sensing function; And a third touch sensor having a sensing function of whether or not the external touch is applied.
상기 제1 접촉 센서는, 인체 및 사물이 접촉된 경우, 사물이 접촉된 경우, 상기 인체가 근접해 있지만 접촉되지 않은 경우, 및 상기 인체 및 사물이 근접해 있지도 않고 접촉 되지 않은 경우를 구분하여 상기 접촉 감지를 수행한다. 상기 제2 접촉 센서는, 인체가 접촉된 경우, 사물이 접촉된 경우, 상기 인체가 근접해 있지만 접촉되지 않은 경우, 및 상기 인체가 근접해 있지도 않고 접촉 되지 않은 경우를 구분하여 상기 접촉 감지를 수행한다. 상기 제3 접촉 센서는, 인체 또는 사물이 접촉된 경우, 및 상기 인체 또는 사물이 접촉되지 않은 경우를 구분하여 상기 접촉 감지를 수행한다. The first touch sensor detects the contact by classifying a case where the human body and the object are in contact, when the object is in contact, when the human body is in proximity but not in contact, and when the human body and the object are neither in proximity nor contact. Perform The second touch sensor performs the touch detection by classifying a case in which a human body is in contact, an object in contact, a case in which the human body is in proximity but not in contact with the human body, and a case in which the human body is not in proximity or in contact with the body. The third touch sensor distinguishes the case where the human body or the thing is in contact with the case where the human body or the thing is not in contact and performs the touch sensing.
상기 로봇제어부는, 상기 로봇의 자세를 검출할 때, 상기 모터의 값만을 이용하는 경우, 상기 센서의 값만을 이용하는 경우, 및 상기 모터와 센서의 값을 함께 이용하는 경우 중 어느 하나를 통해 상기 로봇의 자세를 검출한다. The robot controller may detect the posture of the robot by using only the value of the motor, using only the value of the sensor, or using the value of the motor and the sensor together. Detect.
상기 로봇제어부는, 상기 로봇의 자세를 검출할 때, 미리 프로그램된 자세 값과 현재 검출된 값을 비교하여 상기 로봇의 자세를 검출하는 프로그램 자세 검출방식; 및 상기 모터 및 센서 값의 자세 학습을 통하여 상기 로봇의 자세를 검출하는 학습 자세 검출방식 중 어느 하나를 이용한다. The robot control unit may include: a program posture detection method for detecting a posture of the robot by comparing a pre-programmed posture value with a currently detected value when detecting the posture of the robot; And a learning posture detection method for detecting a posture of the robot through posture learning of the motor and sensor values.
상기 로봇제어부는, 상기 프로그램 자세 검출방식을 이용하는 경우, 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들을 수집하는 상태정보 수집부; 및 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들에 대응하여 기 설정된 상기 로봇의 자세정보에 기초하여, 상기 수집한 정보들에 대응하는 상기 로봇의 자세를 검출하는 자세 검출부를 포함한다. The robot control unit may include: a state information collecting unit collecting information detected from the motor and the contact sensor when using the program posture detection method; And a posture detection unit configured to detect postures of the robots corresponding to the collected information based on preset posture information of the robots corresponding to information detected from the motor and the contact sensor.
상기 로봇제어부는, 상기 자세 검출부에서 상기 수집한 정보들에 대응하여 검출한 상기 로봇의 자세가 상기 기 설정된 로봇의 기준자세가 아닌 경우, 상기 로 봇의 자세를 상기 자세 검출부에서 검출한 로봇의 자세가 포함되는 상기 기 설정된 로봇의 자세정보의 유사자세그룹 내에 설정된 기준자세로 수정한다. The robot controller may detect a posture of the robot by the posture detector when the posture of the robot detected in response to the collected information by the posture detector is not a reference posture of the preset robot. Correct the reference posture set in the similar posture group of the preset posture information of the robot included.
상기 로봇제어부는, 상기 학습 자세 검출방식을 이용하는 경우, 자세검출 학습용 디바이스로부터 학습을 통해 얻어진 상기 로봇의 학습결과모델을 제공 받아 저장하는 저장부; 상기 모터 및 상기 접촉 센서로부터 검출되는 정보들을 수집하는 상태정보 수집부; 및 상기 저장된 학습결과모델에 기초하여, 상기 수집한 정보들에 대응하는 상기 로봇의 자세를 검출하는 자세 검출부를 포함한다. The robot controller may include: a storage unit configured to receive and store a learning result model of the robot obtained through learning from a posture detection learning device when using the learning pose detection method; A state information collecting unit collecting information detected from the motor and the contact sensor; And a posture detection unit that detects a posture of the robot corresponding to the collected information based on the stored learning result model.
상기 로봇제어부는, 상기 자세 검출부에서 검출한 상기 로봇의 자세가 기준자세가 아닌 경우, 상기 로봇의 자세를 상기 자세 검출부에서 검출한 로봇의 자세가 포함되는 상기 기 설정된 로봇의 자세정보의 유사자세그룹 내에 설정된 기준자세로 수정하는 자세 수정부를 포함한다. The robot control unit, when the posture of the robot detected by the posture detection unit is not a reference posture, the posture similar group of the posture information of the preset robot including the posture of the robot detected by the posture detection unit And a posture correcting unit configured to correct the reference posture set therein.
상기 학습결과모델은, 상기 모터의 상태값들을 입력으로 하고 그 때의 상기 로봇 자세; 상기 모터의 상태값들과 상기 접촉 센서의 값들을 모두 입력으로 하고 그 때의 상기 로봇 자세; 및 상기 접촉 센서의 값들을 입력으로 하고 그 때의 상기 로봇 자세 모델을 포함한다. The learning result model includes: the robot posture at the time of inputting state values of the motor; The robot posture at the time of inputting both the state values of the motor and the values of the contact sensor; And the robot attitude model at that time with the values of the touch sensor as inputs.
상기 모터의 상태값은, 상기 모터의 상태값 그 자체, 상기 모터의 상태값을 심볼화한 값, 및 상기 모터의 그룹 단위 상태값을 심볼화한 값을 포함한다. The state value of the motor includes a state value of the motor itself, a value of symbolizing a state value of the motor, and a value of symbolizing a group unit state value of the motor.
상기 자세 수정부는, 상기 자세 검출부에서 검출한 상기 로봇의 자세가, 상기 기준자세와 비교하여 서로 불일치하는 경우, 상기 모터의 상태값을 변경하여 상기 로봇에 대한 기준자세로의 이동을 수행한다. The posture correcting unit, when the postures of the robot detected by the posture detecting unit, are inconsistent with each other in comparison with the reference posture, change the state value of the motor to move to the reference posture with respect to the robot.
상기 자세 수정부는, 상기 로봇 자세 변경을 통해 상기 로봇의 자세가 상기 기준자세가 되지 않는 경우, 사용자 인터페이스를 통하여 사용자에게 상기 로봇을 상기 기준자세로 복귀시켜 줄 것을 요청한다. The posture correcting unit requests the user to return the robot to the reference posture through a user interface when the posture of the robot does not become the reference posture by changing the robot posture.
상기와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 로봇의 자세 검출 방법은, 로봇에 부착된 복수의 모터를 통해 상기 모터의 상태값에 기초한 상기 로봇의 움직임을 검출하는 단계; 상기 로봇에 부착된 복수의 접촉센서를 통해 감지되는 상기 로봇에 대한 사용자 및 사물의 접촉 정보를 수집하는 단계; 및 상기 검출된 로봇의 움직임 정보 및 상기 접촉 정보에 기초하여 상기 로봇의 자세를 검출하는 단계를 포함한다. According to an aspect of the present invention, there is provided a method for detecting a posture of a robot, the method including: detecting a movement of the robot based on a state value of the motor through a plurality of motors attached to the robot; Collecting contact information of a user and an object with respect to the robot detected through a plurality of contact sensors attached to the robot; And detecting a posture of the robot based on the detected motion information of the robot and the contact information.
본 발명의 실시예에 따른 로봇의 자세 검출 방법은, 상기 검출한 로봇의 자세가 예외 자세인지를 판별하는 단계; 상기 검출한 로봇의 자세가 예외 자세이면, 상기 검출한 로봇의 자세가 포함되는 유사자세그룹의 기준자세를 계산하는 단계; 및 상기 검출한 로봇의 자세에 따른 상기 모터의 상태값을 상기 기준자세에 대응하는 값으로 변경하는 단계를 더 포함한다. In accordance with another aspect of the present invention, there is provided a posture detecting method of a robot, the method comprising: determining whether the detected posture of the robot is an exception posture; Calculating a reference posture of the similar posture group including the detected posture of the robot when the posture of the detected robot is an exceptional posture; And changing a state value of the motor according to the detected attitude of the robot to a value corresponding to the reference posture.
본 발명의 실시예에 따른 로봇의 자세 검출 방법은, 상기 검출한 로봇의 자세가 예외 자세가 아니면, 상기 기준자세와 상기 검출한 로봇의 자세에 따른 모터의 상태값이 일치하는 지를 판별하는 단계; 상기 기준자세와 상기 검출한 로봇의 자세에 따른 모터의 상태값이 일치하지 않으면, 상기 검출한 로봇의 자세에 따른 상기 모터의 상태값을 상기 기준자세에 대응하는 값으로 변경하는 단계를 더 포함한다. According to an embodiment of the present invention, a method of detecting a robot includes: determining whether a state of a motor corresponding to the reference posture and the detected robot's posture coincides if the detected robot's posture is not an exception posture; Changing the state value of the motor according to the detected attitude of the robot to a value corresponding to the reference attitude, if the state value of the motor according to the attitude of the detected robot does not match. .
본 발명에 따르면, 로봇의 움직임을 검출하는 모터와, 사람의 접촉과 사물의 접촉을 구별할 수 있는 접촉센서를 통해 로봇의 자세를 검출함으로써, 보다 다양하게 로봇의 자세를 검출할 수 있고 사람과 접촉을 하면서 상호작용을 하는 로봇의 자세도 파악이 가능하다. According to the present invention, by detecting the position of the robot through a motor for detecting the movement of the robot and a contact sensor that can distinguish the contact between the human contact and the object, it is possible to detect the posture of the robot in a variety of ways It is also possible to grasp the attitude of the interacting robot while making contact.
이하, 본 발명의 바람직한 실시예들을 첨부한 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the same elements in the figures are represented by the same numerals wherever possible. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.
본 발명은 모터와 센서를 이용하여 로봇의 자세를 파악할 수 있는 방법을 제안한다. The present invention proposes a method for determining the pose of a robot using a motor and a sensor.
이에 본 발명에서는 (사람의 몸에서 발산되는) 열과 습도를 감지할 수 있는 접촉 센서를 제공함과 함께, 이를 이용한 로봇의 자세 파악 방법을 제공함으로써, 로봇의 일부분이 사람이 접촉한 것인지 단순히 사물에 접촉된 것인지를 구분할 수 있도록 한다. 이에 따라, 기존과 달리 로봇과의 상호작용 중에 발생할 수 있는 로봇의 자세도 검출이 가능하다. Accordingly, the present invention provides a contact sensor capable of detecting heat and humidity (which is emitted from a human body) and a method of determining a posture of the robot using the same, whereby a part of the robot is simply in contact with an object. Make sure you can tell if something is wrong. Accordingly, unlike the conventional method, the posture of the robot, which may occur during interaction with the robot, may be detected.
또한, 본 발명에서는 단순히 검출되어야 하는 자세를 메모리에 프로그램하여 두는 방법뿐만 아니라 모터/센서 데이터의 학습을 통해 자세를 검출하는 방법도 제공한다. 이를 통해, 명확히 특정한 자세라고 판단하기 어려운 자세인 경우에도 학습을 통해 가장 유사한 자세를 검출할 수 있도록 한다. 이러한 방법을 이용할 경우 일반적으로 검출되어야 하는 자세를 메모리에 미리 프로그램 해두고, 자세 검출 을 할 경우 검출하기 어려운 또는 중의성(ambiguity)을 가지는 자세의 경우도 검출할 수 있도록 한다. In addition, the present invention provides a method of detecting a posture by learning motor / sensor data as well as a method of simply programming a posture to be detected in a memory. Through this, even the posture that is difficult to be determined as a specific posture can be detected through the most similar posture through learning. When using this method, a posture which should generally be detected is programmed in memory in advance, and when a posture detection is performed, it is possible to detect a posture that is difficult to detect or has an ambiguity.
뿐만 아니라, 기존에는 모터의 값과 가속도 센서, 기울기 센서 등을 이용하고 수학적 계산을 통해 이족 보행 로봇의 자세를 검출하였으나, 본 발명에서는 모터나 (접촉)센서 또는 이들 둘의 혼합을 통해 로봇과 사람이 접촉하는 경우에도 로봇의 자세 검출이 가능하도록 한다. In addition, the attitude of the biped walking robot was detected through mathematical calculations using a motor value, an acceleration sensor, an inclination sensor, and the like, but in the present invention, the robot and the person are controlled by a motor or a (contact) sensor or a mixture of the two. Even when this contact is made, the robot's posture can be detected.
본 발명에서는 로봇을 2족이나, 4족 등 특별한 형태로 제한하지 않지만 설명의 편의를 위해 앞발 2개(왼쪽, 오른쪽), 뒷발 2개(왼쪽, 오른쪽), 머리(모터로 제어되는 눈꺼풀 2개, 귀 2개), 몸통을 구비한 4족 로봇을 예로 든다. 또한, 모터와 모터가 프레임으로 연결되고, 각 부분들이 또한 연결되어야 하지만 이것은 본 발명에서 이루고자 하는 자세 검출 방법 별도로 다루어질 수 있는 부분이므로 모터와 모터와의 연결, 로봇 각 부위의 연결 등에 대해 특별히 설명을 하지는 않지만, 이들이 동작이 가능하도록 연결된 상태인 것으로 본다. In the present invention, the robot is not limited to a special form such as 2 or 4 groups, but for convenience of description, two forefoot (left and right), two forefoot (left and right), and a head (two eyelids controlled by a motor) , Four ears) and a torso robot with torso. In addition, the motor and the motor is connected to the frame, and each part should also be connected, but this is a part of the attitude detection method to be achieved in the present invention can be dealt with separately, so the motor and motor connection, the connection of each part of the robot, etc. It does not, but it is assumed that they are connected to enable operation.
본 발명에서는 로봇 장치에 부착된 모터와 센서, 상기 모터와 센서 및 이들의 혼합을 통해 제공되는 정보를 통해 로봇의 자세를 검출하는 수단과, 상기 검출된 로봇의 자세로부터 미리 정의된 가장 유사한 안정된 자세로 로봇 장치의 자세를 수정하는 수단과, 상기 로봇의 자세를 검출하는 수단과 상기 로봇의 자세를 수정하는 수단을 수행하는 로봇 제어 유닛을 가지는 로봇의 자세 검출 장치 및 그 방법을 제공한다. In the present invention, the motor and sensor attached to the robot device, the means for detecting the position of the robot through the information provided through the motor and the sensor and a mixture thereof, and the most stable stable posture predefined from the detected position of the robot And a robot control unit for performing a means for correcting the posture of the robot apparatus, a means for detecting the posture of the robot, and a means for correcting the posture of the robot.
도 1은 본 발명의 바람직한 실시예에 따른 로봇에 대한 모터 및 센서의 부착 예를 도시한 도면이다. 도면에서 도 1의 (a)는 로봇(100)의 전면을 나타낸 것이고, 도1의 (b)는 로봇(100)의 후면을 나타낸 것이다. 1 is a diagram illustrating an example of attachment of a motor and a sensor to a robot according to a preferred embodiment of the present invention. In Figure 1 (a) shows the front of the
도시된 바와 같이, 모터부(151~155)는 물리적 움직임을 수행하는 모터 자체와 모터의 제어, 및 로봇의 전체적인 동작을 제어하는 로봇 제어 유닛(도 2의 200)과의 통신 기능을 수행하는 드라이버로 구성되어 있다. 모터부(151~155)는 로봇(100)이 기준 위치에서 얼마나 이동되었는지 등의 자신의 위치 값 정보를 제공할 수 있다. As shown, the
모터집합부(110, 120, 130, 140)는 모터부(151~155)와 같은 구성이 복수 개 연결된 것을 간략히 도식화한 것이다. 따라서, 모터집합부(110, 120, 130, 140)는 모터부(151~155)와 같은 구성이 2개 이상 프레임으로 연결된 것으로 볼 수 있다.
본 발명의 실시예에 따라 로봇(100)에 구비되는 센서부(160~176)에 사용되는 센서는 아래와 같은 특성 중 어느 하나의 특성을 갖는다. According to an embodiment of the present invention, the sensor used in the
첫째, 센서부(160~176)에 사용되는 센서는 열에 대한 감지 기능, 습도에 대한 감지 기능을 가지는 접촉 센서(이하, 접촉센서1이라 함)이다. 이러한 접촉센서1은 사람의 신체에서 발산되는 열 및 습도를 감지할 수 있다. First, the sensor used for the
둘째, 센서부(160~176)에 사용되는 센서는 열에 대한 감지 기능을 가진 접촉 센서(이하, 접촉센서2라 함)이다. 이러한 접촉센서2는 사람의 신체에서 발산되는 열을 감지할 수 있다. Second, the sensor used for the
셋째, 센서부(160~176)에 사용되는 센서는 단순히 무엇인가가 닿았다는 것을 알 수 있는 접촉 센서(이하, 접촉센서3이라 함)이다. Third, the sensor used for the
이와 같은 세 가지 특성 중 어느 하나의 특성을 갖는 센서부(160~176)에 사용되는 센서는 감지한 값을 로봇제어유닛(200)과 서로 주고 받을 수 있는 기능 등을 제공하는 드라이버와 함께 로봇(100)에 구비된다. Sensors used in the
센서부(160~176)의 접촉센서1은 인체가 접촉된 경우, 사물이 접촉된 경우, 인체가 근접해 있지만 접촉되지 않은 경우, 및 인체 및 사물이 근접해 있지도 않고 접촉되지 않은 경우 등으로 감지 기능을 구분할 수 있다. The touch sensor 1 of the
센서부(160~176)의 접촉센서2는 접촉센서1과 마찬가지로 인체가 접촉된 경우, 사물이 접촉된 경우, 인체가 근접해 있지만 접촉되지 않은 경우, 및 인체가 근접해 있지도 않고 접촉되지 않은 경우, 즉 4가지의 경우로 감지 기능을 구분할 수 있다. Like the touch sensor 1, the touch sensor 2 of the
마지막으로 센서부(160~176)의 접촉센서3은 인체 또는 사물이 접촉된 경우 및 접촉되지 않은 경우로 감지 기능을 구분할 수 있다. Finally, the contact sensor 3 of the
본 발명에서는 센서부(160~176)의 접촉센서1 및 접촉센서2의 특징을 갖는 센서를 통해 감지 기능을 제공한다. In the present invention provides a sensing function through the sensor having the characteristics of the contact sensor 1 and the contact sensor 2 of the sensor unit (160 ~ 176).
기존의 접촉센서(접촉센서3)는 단순히 무엇인가가 닿았다는 것만을 알 수 있으나, 접촉센서1과 접촉센서2는 사람이 닿았는지 사물이 닿았는지를 구분할 수 있으며, 본 발명에서 이루고자 하는 로봇(100)의 자세 검출 방법에 이용될 수 있다. Existing touch sensor (contact sensor 3) can simply know that something has been touched, but the contact sensor 1 and the contact sensor 2 can distinguish whether a person touches or something touched, the robot to achieve in the present invention ( 100) can be used in the posture detection method.
센서부(160~176)의 접촉센서1과 접촉센서2를 사용하더라도 사람이 신체 중 외부에 노출된 부분과 옷과 같은 것에 의해 한 단계 가려진 부분의 감지된 센서 출력 값은 다를 수 있다. 그러나, 이러한 경우도 실험 값에 의해 이들을 구분할 수 있으므로, 본 발명에서는 이것을 상세하게 구분하여 설명을 하지는 않는다. Even when the touch sensor 1 and the touch sensor 2 of the
도 1에서 예시한 바와 같이 모터부(151~155)는 로봇(100) 장치를 구성하기 위해 임의의 개수로 구성될 수 있다. As illustrated in FIG. 1, the
예를 들어, 모터부(152)는 오른쪽 눈꺼풀을 제어하기 위한 것이고, 모터부(153)는 왼쪽 눈꺼풀을 제어하기 위한 것이다. 또한, 모터부(151)와 모터부(154)는 각각 오른쪽 귀와 왼쪽 귀를 제어하기 위한 것이다. For example, the
이와 같이 본 발명은 로봇(100)의 다리뿐만 아니라 눈꺼풀이나 귀와 같은 모든 위치에 부착된 모터부나 이후에 설명할 센서부들도 자세 파악을 위한 다양한 부위에 부착되어 사용될 수 있다. 예를 들면, 왼쪽 귀가 앞으로 구부려진 상태, 오른쪽 눈꺼풀이 감긴 상태 등도 본 발명에서 로봇(100)의 자세 검출을 위한 대상이 된다. As described above, the present invention may be used to attach various parts for grasping the position of the motor unit attached to all positions such as the eyelid or the ear as well as the sensor unit as well as the legs of the
도 1의 (b)는 로봇(100)의 뒤쪽에 센서부(172~176)가 부착된 예를 도시한 것이다. 센서부(172~176)의 부착도 모터부(151~155)와 마찬가지로 로봇(100) 몸체의 어느 위치에라도 부착될 수 있으며, 일반적으로는 바닥 면과 접촉하는 부분에 주로 부착하게 된다. FIG. 1B illustrates an example in which
그러나, 본 발명에서는 바닥면 뿐만 아니라 사람과 쉽게 접촉하는 부분에도 센서부(172~176)를 부착한다. 예를 들면, 센서부(172~176)를 로봇(100)의 머리 뒤쪽, 귀, 이마, 허리, 옆구리, 및 엉덩이 부분 등이 사람과 자주 접촉하게 되는 부분이므로 이들 부위에도 센서부(172~176)를 부착할 수 있다. However, in the present invention, the
도 2는 본 발명의 실시예에 따른 로봇(100) 내에 로봇제어유닛(200)이 부착 된 형태의 예를 도시한 도면이다. 2 is a view showing an example of the form attached to the
도시된 바와 같이, 로봇제어유닛(200)은 로봇(100)의 내부에 부착되며, 도 2는 로봇제어유닛(200)이 로봇(100)의 복부에 부착한 예를 보여주고 있으나, 로봇(100)의 다른 부분에도 부착될 수 있다. As shown, the
본 발명에서는 로봇(100)에 전원 공급을 위한 부분을 별도로 나타내지는 않았으나, 전원은 배터리 등으로부터 공급될 수 있으므로 별도로 설명을 하지는 않는다. In the present invention, the part for supplying power to the
도 3은 본 발명의 실시예에 따라 로봇(100)에 구비되는 로봇제어유닛(200), 모터부(151~155)를 포함하는 모터집합부(110~140), 및 센서부(160~176)의 네트워크 연결 구성 예를 도시한 도면이다. 3 is a
도시된 바와 같이, 모터부(151~155,111,112) 및 센서부(160~176)는 로봇제어유닛(200) 내에 있는 버스(230)를 통해 CPU(Central Processing Unit)(210) 및 메모리(220)와 연결되는 구조로 되어 있다. 모터집합부(110~140)는 모터부(151~155,111,112)가 모여 있는 집합을 간략하게 표시한 것이므로, 개별 모터부(151~155,111,112)가 연결된 것과 동일한 방법으로 버스(230)를 통해 연결된다. As shown, the
도 4 및 도 5는 본 발명의 실시예에 따른 로봇(100)과 사람의 접촉 예를 도시한 도면이다. 4 and 5 are diagrams showing examples of contact between the
도 4는 본 발명의 실시예에 따른 로봇(100)과 사람(500)의 상호작용 및 그 상황에서 로봇(100)의 자세 검출 예를 설명하기 위한 도면이다. 4 is a view for explaining an example of the interaction between the
도 4에 도시된 바와 같이, 로봇(100)은 뒤쪽 두 다리(구체적으로 160, 162의 접촉센서)가 사람(500)의 복부(B2, B3)와 접촉되고, 사람(500)의 오른손(B1)이 로봇(100)의 엉덩이(구체적으로 161의 접촉센서)에 접촉되는 형태를 도식화한 것이다. As shown in FIG. 4, the
기존에 단순히 접촉이 되었는지 아닌지를 판단하는 센서(접촉센서3)를 사용한 경우에는, 로봇(100)이 엉덩이를 바닥면에 대고, 두 뒷발을 바닥면에 접촉한 상태에서 앞 두발을 들고 있는 경우와 도 4에서 로봇(100)의 형태는 기술적으로 구별이 되지 않는다. In the case of using a sensor (contact sensor 3) which simply determines whether or not the existing contact, the
따라서, 본 발명에서는 접촉센서1 또는 접촉센서2와 같은 특성을 갖는 접촉센서를 이용하여, 위의 두 가지 경우를 구별할 수 있다. Therefore, in the present invention, the above two cases can be distinguished by using a touch sensor having the same characteristics as the touch sensor 1 or the touch sensor 2.
열과 습도를 감지할 수 있는 접촉센서1의 경우, 사람(500)의 신체에서 발산되는 열과 습도에 대한 정보를 미리 기억시켜 두고, 사람(500)이 접촉하게 되었을 경우 이를 판단하도록 한다. In the case of the touch sensor 1 capable of detecting heat and humidity, information about heat and humidity emitted from the body of the
열을 감지할 수 있는 접촉센서2의 경우, 사람(500)의 신체에서 발산되는 열을 감지할 수 있는 접촉센서이므로, 단순히 바닥면에나 사물에 접촉한 것과 사람(500)이 접촉한 것을 구별할 수 있다. In the case of the touch sensor 2 capable of detecting heat, since it is a touch sensor capable of detecting heat emitted from the body of the
이와 같이 본 발명에서는 열 및 습도를 감지할 수 있는 접촉센서1 및 열을 감지할 수 있는 접촉센서2를 사용함으로써, 로봇(100)이 독자적으로 동작하는 경우의 자세뿐만 아니라, 사람(500)과 상호작용하는 경우에도 로봇의 자세를 판단할 수 있다. As described above, in the present invention, by using the touch sensor 1 capable of sensing heat and humidity and the touch sensor 2 capable of sensing heat, as well as the posture when the
도 5는 본 발명의 실시예에 따른 로봇과 사람의 상호작용 및 그 상황의 로봇 의 자세 검출을 위한 다른 예를 도시한 도면이다. FIG. 5 is a diagram illustrating another example for detecting a robot's interaction with a person and a robot's posture in a situation according to an embodiment of the present invention.
도시된 바와 같이, 로봇(100)이 엉덩이를 바닥면에 부착한 상태에서 두 뒷발이 바닥면에 닿아 있고, 로봇(100)의 두 앞발을 사람(500)이 손으로 잡고 있는 상태이다. As shown in the figure, the
여기서 로봇(100)이 사람(500)과 상호작용하지 않고 독자적으로 움직인다고 가정한다면, 로봇(100)의 자세를 파악하는 것이 불가능한 상황이다. 그러나, 본 발명에 따르면 로봇(100)이 사람(500)과 접촉한 두 부분이 단순히 바닥면에 닿은 부분과 구별이 가능하기 때문에, 이 상태가 로봇(100)이 몸체 뒷 부분을 바닥에 댄 상태로 사람(500)과 두 앞발이 닿아 있다는 것을 알 수 있다. Here, if it is assumed that the
도 5를 통한 본 발명에 따르면 로봇(100)이 독자적으로 동작하는 경우뿐만 아니라, 로봇(100)이 사람(500)과 상호작용하고 있는 경우의 자세까지도 파악할 수 있는 장점을 가진다는 것을 알 수 있다. According to the present invention through FIG. 5, it can be seen that not only the
본 발명에 따르면 로봇(100)의 모터 및 센서를 이용한 자세 검출은 모터의 값만을 이용하여 할 수도 있고, 센서의 값만을 이용하여 할 수도 있고, 모터 및 센서 둘의 값을 모두 이용하여 할 수도 있다. According to the present invention, the posture detection using the motor and the sensor of the
도 6은 본 발명의 실시예에 따른 로봇(100)의 검출자세 및 예외자세에서 기준자세로의 복귀에 대한 개념을 설명하기 위한 도면이다. 6 is a view for explaining the concept of the return to the reference posture from the detection posture and exceptional posture of the
도시된 바와 같이, 로봇(100)의 유사자세그룹(610, 620)은 모터값이나 센서값이 해당 자세에 대응하여 설정된 값들과 완전히 일치하는 것은 아니지만, 그 값이 일정 범위 내의 값으로 같은 자세로 취급할 수 있는 자세그룹을 말한다. As shown, the similar posture groups 610 and 620 of the
즉, 로봇(100)이 앉아 있는 경우에도 모터 값이나 센서 값이 조금씩은 다를 수 있으므로 다양한 유사자세그룹을 사용자가 정의할 수 있다. 본 발명에서는 판단된 로봇의 자세를 검출자세(612, 622)라고 한다. 또한 본 발명에서 검출된 자세가 아주 특별한 자세, 즉 로봇(100)이 뒤집어져 있는 등 불안정한 상태를 예외자세(613, 623)라고 한다. That is, even when the
본 발명에 의한 자세 수정 수단은 검출자세(612, 622)나 예외자세(613, 623)가 기준자세(611,621)가 되도록 수정하는 것을 말한다. 여기서 기준자세(611,621)란 유사자세그룹(610, 620)의 표준이 되는 자세, 즉 로봇(100)의 가장 안정된 앉아 있는 자세 등을 말한다. The posture correcting means according to the present invention refers to a correction so that the detection postures 612 and 622 and the exception postures 613 and 623 become the reference postures 611 and 621. Here, the reference postures 611 and 621 refer to a posture that becomes a standard for the similar posture groups 610 and 620, that is, the most stable sitting posture of the
본 발명에서 검출자세(612, 622)나 예외자세(613, 623)에서 가장 가까운 기준자세(611,621)를 찾는 것은 모터값과 센서값의 벡터를 이용하여 두 벡터간의 거리가 가장 가까운 것을 찾는 방법을 이용할 수 있다. In the present invention, finding the reference postures 611, 621 closest to the detection postures 612 and 622 or the exception postures 613 and 623 is a method of finding the closest distance between two vectors using a vector of a motor value and a sensor value. It is available.
도 7은 본 발명의 바람직한 실시예에 따른 로봇의 자세검출방법을 도시한 흐름도이다. 7 is a flowchart illustrating a method of detecting a posture of a robot according to an exemplary embodiment of the present invention.
위에서 설명한 바와 같이, 로봇(100)은 부착된 모터들과 센서들을 통해 수집되는 정보에 기초하여 로봇((100)의 자세를 검출한다(S110). As described above, the
자세를 검출한 후, 로봇(100)은 검출한 자세정보가 예외 자세인지를 판단한다(S120). After detecting the posture, the
예외자세 판단 결과, 로봇(100)은 검출한 자세정보가 예외 자세이면, 예외자세인 검출한 자세정보와 가장 가까운 기준자세를 메모리(220)로부터 검출한 다(S130). As a result of the exceptional posture determination, if the detected attitude information is the exceptional attitude, the
S120 단계에서 검출한 자세정보가 예외자세가 아닌 것으로 판단되면, 로봇(100)은 기준자세의 설정된 모터값과 검출한 자세정보의 모터값을 비교한다(S150). If it is determined that the detected posture information in step S120 is not an exceptional posture, the
이때 로봇(100)은 기준자세의 설정된 모터값과 검출한 자세정보의 모터값이 모두 일치하는 지를 판별한다(S160). At this time, the
기준자세의 설정된 모터값과 검출한 자세정보의 모터값이 모두 일치하면, 로봇(100)은 S110 단계에서 검출한 자세가 로봇(100)의 정확한 자세임을 판단하고 수행주인 자세검출 동작을 종료한다(S170). When the set motor value of the reference posture and the motor value of the detected posture information all match, the
한편, S130 단계에서 예외자세인 검출한 자세정보와 가장 가까운 기준자세를 검출한 후, 또는 S160 단계에서 기준자세의 설정된 모터값과 검출한 자세정보의 모터값이 하나라도 일치하지 않으면, 로봇(100)은 메모리(220)에 저장된 모터값을 변경하고 다시 자세 검출 단계(S110)를 수행한다. On the other hand, after detecting the reference position closest to the posture information detected in the exceptional position in step S130, or if the motor value of the detected posture information and the set motor value of the reference posture in step S160 does not match any one, the robot 100 ) Changes the motor value stored in the
이때, 이와 같은 단계가 반복될 수 있는데, 예를 들면, 로봇(100)이 뒤집어져 있는 상태에서 가장 가까운 기준자세로의 복귀를 시도하는데, 몇 번을 시도해도 기준자세로 복귀가 되지 않으면 로봇(100)이 가진 스피커나 LED, LCD 등과 같은 사용자 인터페이스를 통하여 사용자가 기준자세로 복귀시켜 줄 것을 요청할 수 있다. 이때 사용자가 안정된 자세로 복귀시켜 주기는 하나 완전한 기준자세는 되지 않을 수 있기 때문에, 그러한 경우에 위의 단계를 반복하면서 기준자세로의 복귀를 완료할 수 있다. 일반적으로 로봇(100)이 스피커나 LCD, LED등 외부 출력 장치를 가지 기 때문에, 본 발명에서는 로봇(100)이 스피커나 LCD, LED를 가진 경우를 도면에 따로 도시하지는 않았다. At this time, such a step may be repeated. For example, the
본 발명은 그 실시예에 따라 모터나 센서 값을 메모리(220)에 미리 값을 기억시켜 두고, 실제 로봇(100)의 움직임이 있을 때 이 값과 유사하거나 일치할 때 자세를 판단하게 할 수 있다(이하, 프로그램 자세검출방법이라 함). 또한, 본 발명은 다른 실시예에 따라 미리 해당 자세에 대응하는 값을 기억시켜 두지 않고 학습을 통해 자세를 판단할 수도 있다(이하, 학습 자세검출방법이라 함). According to the embodiment of the present invention, the motor or sensor values may be stored in advance in the
도 12는 본 발명의 실시예에 따른 프로그램 자세검출방법에 따른 로봇의 자세 검출 수단 및 자세 수정 수단의 구성 예이다. 12 is a configuration example of a posture detecting means and a posture correcting means of a robot according to a program posture detecting method according to an embodiment of the present invention.
도 12에서 로봇제어유닛(200)의 메모리(220) 내에 있는 센서정보를 통한 상태수집 프로그램(221)이 로봇(100)에 부착된 모터나 센서 값을 읽어 와서 자세 검출 프로그램(224)으로 출력한다. In FIG. 12, the
자세검출 프로그램(224)은 모터나 센서 값들의 조합과 그 조합일 때의 자세를 미리 메모리에 가지고 있다가, 상태수집 프로그램(221)으로부터 입력된 모터나 센서 값들과 비교해서 자세를 판단한다. The
이때 자세가 기준 자세가 아닐 경우, 로봇(100)의 로봇제어유닛(200)은 자세 수정 프로그램(222)을 통해 기준자세로의 복귀를 시도하도록 한다. 자세 수정 수단에 대해서는 이후에 자세히 설명한다. In this case, when the posture is not the reference posture, the
본 실시예에서 메모리(220)에 미리 기억된 로봇(100)의 자세 정보는 (모터값 벡터, 자세), (센서값벡터, 자세), (모터값 벡터, 센서값 벡터, 자세) 등이 될 수 있다. 즉, 본 실시예에서는 로봇(100)에 부착된 모터값만을 이용한 자세, 센서값만을 이용한 자세, 모터값과 센서값을 모두 이용한 자세를 자유롭게 구성할 수 있다. In this embodiment, the posture information of the
예를 들어, 도 4의 상태를 센서 값만을 이용하여 프로그램할 경우, (센서값벡터, 자세)는 (160 상태값, 161 상태값, 162 상태값, …, 175 자세값, 자세값)로 나타낼 수 있다. 접촉센서1 또는 접촉센서2를 이용할 경우, (센서값벡터, 자세)는 (HUMAN_TOUCH, HUMAN_TOUCH, HUMAN_TOUCH, NO_TOUCH, …, NO_TOUCH, POSE1)과 같이 나타낼 수 있다. For example, when the state of FIG. 4 is programmed using only the sensor value, (sensor value vector, posture) is represented by (160 state value, 161 state value, 162 state value,…, 175 posture value, posture value). Can be. When using the contact sensor 1 or the contact sensor 2, (sensor value vector, attitude) can be expressed as (HUMAN_TOUCH, HUMAN_TOUCH, HUMAN_TOUCH, NO_TOUCH, ..., NO_TOUCH, POSE1).
또한, 이러한 경우에 사용하는 모터 값이나 센서 값의 경우 상기 예처럼 값들을 심볼화하여 사용할 수 있다. 또한, 모터의 경우 그룹 단위로 값을 심볼화할 수도 있는데, 예를 들면 각 발의 자세를 10개로 구분하고, 10개 중의 하나의 값으로 발 전체의 모터 값을 하나의 심볼화된 값으로 처리할 수도 있다. In addition, in the case of a motor value or a sensor value used in this case, the values may be symbolized as in the above example. In addition, in the case of a motor, it is also possible to symbolize the value in groups. For example, the position of each foot may be divided into ten, and one of the ten may be treated as a symbolized value. have.
모터의 경우 가장 기본적으로는 움직인 각도 같은 값을 그대로 사용할 수도 있다. 예를 들면, (angle1< value < angle2) 와 같이 검출된 값(value)이 두 값(angle1, angle2) 사이에 있는 것이라는 테스트를 수행할 수 있다. 이상과 같이 모터나 센서 값의 경우, 검출된 값 자체를 이용하거나, 그 값을 심볼화하거나, 그룹 단위로 값을 심볼화하여 이용할 수 있다. In the case of a motor, it can basically use the same value as the angle of movement. For example, a test may be performed that a detected value, such as (angle1 <value <angle2), is between two values, angle1 and angle2. As described above, in the case of a motor or a sensor value, the detected value itself may be used, the value may be symbolized, or the value may be symbolized in a group unit.
도 8 내지 도 11은 본 발명의 실시예에 따른 학습 자세검출방법에 따른 로봇의 자세 검출을 위한 구성 예를 설명하기 위한 도면이다. 8 to 11 are diagrams for explaining a configuration example for the posture detection of the robot according to the learning posture detection method according to an embodiment of the present invention.
도 8은 본 발명에 따른 학습을 이용한 로봇 자세 검출 방법 개념도를 도시한 도면이다. 8 is a conceptual diagram illustrating a robot posture detection method using learning according to the present invention.
도시된 바와 같이, 학습 자세검출방법은, 자세 학습을 시킬 때 로봇제어유닛(200)과 자세 검출 학습용 컴퓨터(300)가 인터페이스 케이블(310)로 연결되어 있어야 한다. As shown, in the learning posture detection method, when performing posture learning, the
이때 도 11에 나타난 상태수집 프로그램(221)에서 모터와 센서 값을 수집하여 도 8 및 도 9에 나타나 있는 자세 검출 학습용 컴퓨터(300)에 있는 자세 검출 학습 프로그램(400)에 수집된 모터와 센서 값들을 전달한다. At this time, the motor and sensor values are collected in the posture
도 9는 도 8의 본 발명에 따른 학습을 이용한 로봇 자세 검출 수단을 보다 상세히 도시한 도면이다. 9 is a view showing in more detail the robot posture detection means using the learning according to the invention of FIG.
도시된 바와 같이, 로봇(100)의 로봇제어유닛(200)과 통신을 수행하는 자세검출 학습용 컴퓨터(300)의 자세검출 학습 프로그램(400)은, 데이터 수집부(410), 학습 데이터(420), 학습 알고리즘(430), 및 학습결과모델(440)을 포함한다. As shown, the posture
데이터 수집부(410)는 로봇제어유닛(200)에서 전달된 데이터를 학습데이터(420)로서 저장을 하게 되고, 학습알고리즘(430)은 학습데이터(420)를 이용하여 자세 학습을 하고 그 결과를 학습결과모델(440)로 저장한다. The
학습을 하는 과정에서 사용자(사람, 500)가 개입이 되는데, 이것은 데이터를 수집하는 단계이다. 데이터를 수집하는 단계에서 단순히 모터값이나 센서 값을 읽어 와서 저장하면 되는 것이 아니라, 사용자가 이들 값들에 대한 로봇 자세를 입력해 주어야 한다. 이것은 기계학습의 단계에서는 통상적으로 개입이 되는 과정이므로 이 단계를 구체적으로 설명하지는 않는다. In the process of learning, a user (person, 500) is involved, which is the step of collecting data. Rather than simply reading and storing motor and sensor values in the data collection phase, the user must enter the robot posture for these values. This step is usually an intervention in the machine learning phase, so this step is not described in detail.
도 10은 본 발명의 실시예에 따른 로봇 자세 검출을 위한 학습 데이터 구성의 예를 도시한 도면이다. 10 is a diagram illustrating an example of a configuration of training data for detecting a robot posture according to an exemplary embodiment of the present invention.
도시된 바와 같이, 학습을 위한 데이터로 모터 상태값(421, 422, 423)과 센서 상태값(424, 425)을 이용하고, 그 결과로 로봇(100)의 자세(Pose, 426)를 얻는 구조로 되어 있다. As shown in the figure, the motor state values 421, 422, and 423 and the sensor state values 424 and 425 are used as data for learning, and as a result, the
본 발명은 학습 데이터 구성을 단순히 도 10에 나타난 것과 같이 제한하지는 않는다. 학습 데이터는 모터나 센서의 값 그 자체를 이용할 수도 있고, 그 값들을 심볼화하여 사용할 수도 있고, 그룹 단위로 값을 심볼화하여 사용할 수도 있다. 이것에 대해서는 위에서 설명하였다. The present invention does not limit the learning data configuration simply as shown in FIG. The learning data may use the value of the motor or sensor itself, symbolize the values, or symbolize the values in groups. This has been described above.
도 11은 본 발명의 실시예에 따른 학습결과모델을 이용한 자세검출 수단 및 자세 수정 수단의 구성 예를 도시한 도면이다. 11 is a view showing an example of the configuration of the posture detection means and posture correction means using the learning result model according to an embodiment of the present invention.
도시된 바와 같이, 도 9에서 학습을 통해 도 9의 학습결과모델(440)이 만들어지면 이것의 복사본(441)을 로봇제어유닛(200) 내의 메모리(220)로 복사하여 자세 검출에 사용한다. As shown, when the
이때, 상태수집 프로그램(221)이 모터나 센서의 값을 읽어 와서 자세검출 프로그램(223)에 전달하면, 자세 검출 프로그램(223)은 학습결과모델(440)의 복사본(441)을 이용하여 로봇(100)의 자세를 검출한다. 이때 검출된 자세가 기준자세가 아닐 경우, 자세수정 프로그램(222)은 로봇(100)의 기준자세로의 복귀를 수행한다. 자세수정 수단 및 이를 통한 자세 수정 방법에 대해서는 도 6 및 도 7에 도시되어 있으므로 중복된 설명은 생략한다. At this time, when the
이상에서는 본 발명에서 특정의 바람직한 실시예에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 및 균등한 타 실시가 가능할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부한 특허청구범위에 의해서만 정해져야 할 것이다. In the above, specific preferred embodiments of the present invention have been illustrated and described. However, the present invention is not limited to the above-described embodiments, and any person having ordinary skill in the art to which the present invention pertains may make various modifications and other equivalents without departing from the gist of the present invention attached to the claims. Implementation will be possible. Therefore, the true technical protection scope of the present invention should be defined only by the appended claims.
상술한 본 발명에 따르면, 로봇의 움직임을 검출하는 모터와, 사람의 접촉과 사물의 접촉을 구별할 수 있는 접촉센서를 통해 로봇의 자세를 검출함으로써, 보다 다양하게 로봇의 자세를 검출할 수 있고 사람과 접촉을 하면서 상호작용을 하는 로봇의 자세도 파악이 가능하다. According to the present invention described above, by detecting the position of the robot through a motor for detecting the movement of the robot and a contact sensor that can distinguish the contact between the human contact and the object, it is possible to detect the attitude of the robot in more various ways It is also possible to grasp the position of the interacting robot while in contact with a person.
또한, 본 발명의 로봇의 자세 검출 장치 및 그 방법에 따르면 사람의 접촉과 사물의 접촉을 구분할 수 있는 접촉센서를 통해 로봇이 독자적으로 동작하고 있는 상태에서의 로봇의 자세뿐만 아니라 로봇과 사람이 상호접촉을 하고 있는 상태에서의 로봇의 자세도 검출할 수 있다. 이것은 특히 애완형/동물형 로봇을 어린이가 인형과 같은 것으로 생각하여 로봇과의 접촉을 많이 하게 되는 경우에도 로봇의 자세를 정확히 파악할 수 있게 하므로, 보다 지능적인 로봇 응용 개발이 가능하다. In addition, according to the robot posture detection device and method of the present invention, the robot and the person mutual as well as the robot's posture in a state in which the robot operates independently through a contact sensor that can distinguish the contact between the person and the object. The attitude of the robot in the contact state can also be detected. This makes it possible to accurately understand the attitude of the robot even when the pet / animal robot is regarded as a doll and the children make a lot of contact with the robot, thus enabling more intelligent robot application development.
뿐만 아니라, 본 발명에 의하면 로봇의 자세를 검출한 뒤에 그 자세가 불안정한 자세이면 안정한 기준자세로의 복귀를 할 수 있도록 하고, 더불어 여러 번의 시도에도 불구하고 안정한 기준자세로의 복귀가 이루어지지 않으면 사람에게 로봇에 부착된 출력수단을 통해 기준자세로의 복귀를 위한 도움을 요청할 수 있도록 함으로써, 로봇이 불안정한 상태가 지속됨으로 인해 발행할 수 있는 로봇의 오작동이나 고장 또는 사고 등을 미연에 방지할 수 있다.In addition, according to the present invention, if the posture of the robot is detected after the posture of the robot is unstable, it is possible to return to a stable reference posture. By allowing the robot to request help for returning to the standard posture through the output means attached to the robot, it is possible to prevent a malfunction, failure or accident of the robot that may be issued due to the unstable state of the robot. .
Claims (19)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060119903A KR100862190B1 (en) | 2006-11-30 | 2006-11-30 | Apparatus and Method for detecting pose of robot |
PCT/KR2007/005799 WO2008066273A1 (en) | 2006-11-30 | 2007-11-19 | Apparatus and method for detecting posture of robot |
JP2009539177A JP2010510895A (en) | 2006-11-30 | 2007-11-19 | Robot posture detection apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060119903A KR100862190B1 (en) | 2006-11-30 | 2006-11-30 | Apparatus and Method for detecting pose of robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080049396A KR20080049396A (en) | 2008-06-04 |
KR100862190B1 true KR100862190B1 (en) | 2008-10-09 |
Family
ID=39468027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060119903A KR100862190B1 (en) | 2006-11-30 | 2006-11-30 | Apparatus and Method for detecting pose of robot |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2010510895A (en) |
KR (1) | KR100862190B1 (en) |
WO (1) | WO2008066273A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103513768B (en) * | 2013-08-30 | 2016-08-24 | 展讯通信(上海)有限公司 | A kind of control method based on mobile terminal attitudes vibration and device, mobile terminal |
CN105094160A (en) * | 2014-11-18 | 2015-11-25 | 芜湖蓝宙电子科技有限公司 | Vertical balanced robot |
JP2020147604A (en) * | 2020-06-17 | 2020-09-17 | テックフィールズ インコーポレイテッド | Nsaia prodrug having very fast skin- and film-infiltration rate, and new use thereof as medicine |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010025103A (en) * | 1998-11-30 | 2001-03-26 | 이데이 노부유끼 | Robot device and control method thereof |
JP2002052489A (en) * | 2000-08-11 | 2002-02-19 | Yamaha Motor Co Ltd | Contact object identification device and contact state identification device |
KR100515276B1 (en) | 2001-06-07 | 2005-09-15 | 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 | Two-leg walking humanoid robot |
JP2006167841A (en) | 2004-12-14 | 2006-06-29 | Honda Motor Co Ltd | Control device of legged robot |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0780790A (en) * | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | Three-dimensional object grasping system |
JP3199059B2 (en) * | 1998-06-09 | 2001-08-13 | ソニー株式会社 | Robot apparatus and attitude control method thereof |
JP2002239952A (en) * | 2001-02-21 | 2002-08-28 | Sony Corp | Robot device, action control method for robot device, program, and recording medium |
JP3522741B2 (en) * | 2002-03-15 | 2004-04-26 | ソニー株式会社 | Motion control device and motion control method for legged mobile robot, and robot device |
JP2004357915A (en) * | 2003-06-04 | 2004-12-24 | Matsushita Electric Ind Co Ltd | Sensing toy |
-
2006
- 2006-11-30 KR KR1020060119903A patent/KR100862190B1/en not_active IP Right Cessation
-
2007
- 2007-11-19 JP JP2009539177A patent/JP2010510895A/en active Pending
- 2007-11-19 WO PCT/KR2007/005799 patent/WO2008066273A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010025103A (en) * | 1998-11-30 | 2001-03-26 | 이데이 노부유끼 | Robot device and control method thereof |
JP2002052489A (en) * | 2000-08-11 | 2002-02-19 | Yamaha Motor Co Ltd | Contact object identification device and contact state identification device |
KR100515276B1 (en) | 2001-06-07 | 2005-09-15 | 도꾸리쯔교세이호징 가가꾸 기쥬쯔 신꼬 기꼬 | Two-leg walking humanoid robot |
JP2006167841A (en) | 2004-12-14 | 2006-06-29 | Honda Motor Co Ltd | Control device of legged robot |
Also Published As
Publication number | Publication date |
---|---|
WO2008066273A1 (en) | 2008-06-05 |
JP2010510895A (en) | 2010-04-08 |
KR20080049396A (en) | 2008-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11345041B2 (en) | Robot device, method of controlling the same, computer program, and robot system | |
Brooks et al. | Sensing and manipulating built-for-human environments | |
Hyon | Compliant terrain adaptation for biped humanoids without measuring ground surface and contact forces | |
DK2740012T3 (en) | ROBOT WITH LEDS WITH VARIABLE STRENGTH AND PROCEDURE FOR CALCULATING THE OPTIMAL STIGNESS | |
JP6007908B2 (en) | Humanoid robot with fall management ability and method for managing fall | |
Edsinger et al. | Manipulation in human environments | |
EP3316735A1 (en) | Motion control seat input device | |
US11642780B2 (en) | Monitoring of surface touch points for precision cleaning | |
TWI750939B (en) | Method for controlling robot to get out of trap, robot, electronic device and computer-readable storage medium | |
JP4810880B2 (en) | Robot and its control method | |
KR100862190B1 (en) | Apparatus and Method for detecting pose of robot | |
CN112223283A (en) | Robot arm, robot arm control method, processing apparatus, and medium | |
WO2004085121A1 (en) | Robot device and method of controlling the same | |
JP2007152472A (en) | Charging system, charging station and robot guidance system | |
Bolder et al. | Visually guided whole body interaction | |
JP7172399B2 (en) | Control device, robot, control method and program | |
KR20140054589A (en) | Apparatus for providing robot control and method therefor | |
KR20200024875A (en) | How to move an exoskeleton | |
JP2004306249A (en) | Diagnostic instrument of stereo camera carried on robot and diagnostic method of stereo camera carried on robot device | |
Lee et al. | A self-reliance assistive tool for disable people | |
JP2006247800A (en) | Control device for leg type movement robot | |
Marin-Urias et al. | Geometric tools for perspective taking for human–robot interaction | |
JP2007069303A (en) | Communication robot | |
Zhou et al. | Hands to hexapods, wearable user interface design for specifying leg placement for legged robots | |
CN114237233B (en) | Robot chess playing method and device, computer readable storage medium and robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120928 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140401 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140917 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20151001 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160923 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |