KR100813693B1 - Method for controlling arm movement of robot and robot thereof - Google Patents

Method for controlling arm movement of robot and robot thereof Download PDF

Info

Publication number
KR100813693B1
KR100813693B1 KR1020060118606A KR20060118606A KR100813693B1 KR 100813693 B1 KR100813693 B1 KR 100813693B1 KR 1020060118606 A KR1020060118606 A KR 1020060118606A KR 20060118606 A KR20060118606 A KR 20060118606A KR 100813693 B1 KR100813693 B1 KR 100813693B1
Authority
KR
South Korea
Prior art keywords
robot
angle
wrist
palm
human
Prior art date
Application number
KR1020060118606A
Other languages
Korean (ko)
Inventor
김창환
김승수
나성권
유범재
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020060118606A priority Critical patent/KR100813693B1/en
Application granted granted Critical
Publication of KR100813693B1 publication Critical patent/KR100813693B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J17/00Joints
    • B25J17/02Wrist joints
    • B25J17/0283Three-dimensional joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control

Abstract

A method for controlling arm movement of a robot and a robot thereof are provided to generate motion of a predetermined arm of the robot by applying a lifting angle for an elbow using operation database of a human arm. A method for controlling arm movement of a robot comprises the steps of: obtaining(S102) an angle for the ground surface with the wrist position from the shoulder of human and the normal direction of the palm to reproduce arm operation of human; calculating(S103) lifting angle for the elbow through an angle for the obtained wrinkle position and the normal direction of the palm with the ground surface; calculating(S104) each joint value of the robot by using the lifting angle of the elbow, the angle for the wrinkle position and the normal direction of the palm with the ground surface; and controlling(S105) the joint of the robot by using the calculated each joint value.

Description

로봇의 팔 동작 제어 방법 및 그 로봇{METHOD FOR CONTROLLING ARM MOVEMENT OF ROBOT AND ROBOT THEREOF}METHOD FOR CONTROLLING ARM MOVEMENT OF ROBOT AND ROBOT THEREOF}

도 1은 본 발명의 제 1 실시예에 따른 로봇의 팔 동작 제어 방법을 나타낸 흐름도이다.1 is a flowchart illustrating a method for controlling arm motion of a robot according to a first exemplary embodiment of the present invention.

도 2는 본 발명의 제 2 실시예에 따른 로봇 제어 장치를 나타낸 구성도이다.2 is a block diagram showing a robot control apparatus according to a second embodiment of the present invention.

도 3은 본 발명의 제 3 실시예에 따른 로봇 제어 장치를 나타낸 구성도이다. 3 is a block diagram showing a robot control apparatus according to a third embodiment of the present invention.

도 4는 인간의 팔 움직임의 특징을 표현하기 위하여 다양한 팔 동작에 대한 데이터베이스 구축하기 위한 실험을 나타내는 예시도이다.4 is an exemplary diagram showing an experiment for building a database for various arm motions in order to express the characteristics of human arm motion.

도 5는 인간의 팔 움직임의 특징을 표현하기 위한 팔꿈치 들림각을 보여주는 도면이다.5 is a diagram showing elbow lift angles for expressing features of human arm movement.

도 6은 인간 및 로봇의 팔의 좌표계를 보여주는 도면이다.6 is a view showing the coordinate system of the arm of a human and a robot.

도 7은 6 자유도의 팔을 가진 로봇의 예시도이다.7 is an illustration of a robot with an arm of six degrees of freedom.

도 8은 로봇의 왼팔의 좌표계를 보여주는 도면이다.8 is a view showing the coordinate system of the left arm of the robot.

** 주요 부호 설명 **** Major Code Description **

200: 본 발명의 제 1 실시예에 따른 로봇 제어 장치200: robot control apparatus according to the first embodiment of the present invention

210: 네트워크 인터페이스 220: 저장장치210: network interface 220: storage device

230: 프로세서230: processor

300: 본 발명의 제 2 실시예에 따른 로봇 제어 장치300: a robot control apparatus according to a second embodiment of the present invention

310: 네트워크 인터페이스 320: 저장장치310: network interface 320: storage device

330: 프로세서330: processor

본 발명은 로봇의 팔 동작 제어 방법 및 그 로봇에 관한 보다 상세하게는 휴머노이드 로봇이 인간의 팔 동작과 유사하게 동작을 재현하도록 제어하는 방법 및 그 로봇에 관한 것이다.The present invention relates to a method for controlling a robot's arm motion, and more particularly, to a method for controlling a humanoid robot to reproduce motion similar to a human's arm motion and a robot.

유용한 서비스의 제공을 목적으로 하는 휴머노이드 로봇이 최근 개발되어 공개되는 사례가 늘고 있다. 이렇게 개발된 휴머노이드 로봇이 인간에게 유용한 서비스를 제공하기 위해서는, 휴머노이드 로봇이 인간처럼 동작할 수 있어야 한다.Humanoid robots aimed at providing useful services have recently been developed and released. In order for the humanoid robots thus developed to provide useful services to humans, humanoid robots must be able to operate like humans.

휴머노이드 로봇이 인간처럼 동작할 수 있게 하기 위해서, 최근에는 인간의 동작을 측정하고, 상기 측정된 데이터를 휴머노이드 로봇에 알맞게 조정하여 적용하는 방법이 사용되어 왔다. 여기서, 인간의 동작을 측정하기 위해서 광학식 모션캡쳐시스템이 많이 사용되는데, 상기 광학식 모션캡쳐시스템은 인간의 몸 동작을 잘 나타내는 부위 즉, 관절에 마커(marker)를 부착하게 하고, 그 마커의 시간에 따른 궤적을 측정하는 것이다.In order to enable a humanoid robot to operate like a human, recently, a method of measuring human motion and adjusting and applying the measured data to a humanoid robot has been used. Here, an optical motion capture system is frequently used to measure a human motion, and the optical motion capture system allows a marker to be attached to a site representing a human body motion, that is, a joint, and at a time of the marker. It is to measure the trajectory according to.

이와 같이 인간의 동작을 측정하여 적용하는 접근 방법은 여러 연구자들에 의해 시도되었다. 그 중에서, 김창환 (ChangHwan Kim, Doik Kim, and Yonghwan Oh, "Solving an inverse kinematics problem for a humanoid robots imitation of human motions using optimization," in Second International Conference on Informatics in Control, Automation and Robotics, September 2005, pp. 85?92, Barcelona, Spain)은 인간의 팔에 부착된 마커 데이터를 최적화 기법을 이용하여 인간형 로봇의 팔에 적용할 수 있는 동작으로 변환시키는 방법을 제안하였다. 이 연구에서는 인간의 손의 위치와 방향, 그리고 위팔의 방향을 모방함으로써, 인간형 로봇이 인간 팔 전체 동작을 모방할 수 있도록 하였을 뿐 만 아니라, 인간형 로봇의 팔 관절 모터의 작동 범위 및 속도 한계를 고려하였다. 그러나 이러한 방법은 무작위로 이루어지는 인간다운 동작을 새롭게 생성시킬 수는 없었다. This approach to measuring and applying human behavior has been tried by several researchers. Among them, ChangHwan Kim, Doik Kim, and Yonghwan Oh, "Solving an inverse kinematics problem for a humanoid robots imitation of human motions using optimization," in Second International Conference on Informatics in Control, Automation and Robotics, September 2005, pp 85–92, Barcelona, Spain) proposed a method of converting marker data attached to a human arm into an action that can be applied to the arm of a humanoid robot using an optimization technique. This study not only allows the humanoid robot to mimic the entire human arm motion by imitating the position and direction of the human hand and the direction of the upper arm, but also considers the operating range and speed limits of the arm joint motor of the humanoid robot. It was. However, this method could not produce a new, random human behavior.

한편, Pollard (Nancy S. Pollard, Jessica K. Hodgins, Marcia J. Riley, and Christopher G. Atkeson, "Adapting human motion for the control of a humanoid robot,"in IEEE International Conference on Robotics and Automation, May 2002, vol. 2, pp. 1390?1397, Washington, DC, U.S.A.)는 캡쳐된 인간의 동작을 상체 위주로 구성된 인간형 로봇에 적용할 수 있게 하는 방법을 개발하였다. 이 캡쳐된 인간의 상체 동작과 이를 모방하려는 휴머노이드 로봇 동작 사이의 차를 최소화함으로써 인간의 동작을 로봇이 모방하도록 했다.Pollard (Nancy S. Pollard, Jessica K. Hodgins, Marcia J. Riley, and Christopher G. Atkeson, "Adapting human motion for the control of a humanoid robot," in IEEE International Conference on Robotics and Automation, May 2002, 2, pp. 1390–1397, Washington, DC, USA) have developed a method that enables the application of captured human motion to an upper body-oriented humanoid robot. The robot mimics human motion by minimizing the difference between the captured human upper body motion and the humanoid robot motion to mimic it.

또한, Nakaoka (Shinichiro Nakaoka, Atsushi Nakazawa, Kazuhito Yokoi, Hirohisa Hirukawa, and Katsushi Ikeuchi, "Generating whole body motions for a biped humanoid robot from captured human dances," in International Conference on Robotics and Automation, September 2003, pp. 3905?3910, Tapei, Taiwan.)는 모션캡쳐시스템으로 일본 전통 춤을 캡쳐하고, 이를 휴머노이드 로봇(모델 HRP-1S)이 모방할 수 있도록 하는 체계적인 절차와 모방 알고리즘을 제안하였다. 이와 같은 방식은 상기 캡쳐된 전통 춤에서 주요한 몇 가지의 동작들만을 추출하여, 몇 가지의 대표 동작을 구성하였다. 그리고, 각 대표 동작을 모방할 수 있는 인간형 로봇의 관절 변위를 구했다. 이어서, 상기 각 대표동작에 대한 로봇의 관절 변위를 이용하여 전체 춤 동작을 연속으로 표현하였다. 그러나, 이 방법은 관절의 변위를 구하는 과정에서 로봇의 동적인 안정성을 만족하게 하기 위해 Zero Moment Point (ZMP)를 고려하여 몸통 동작을 수정하여아만 하는 문제점이 있었다. Nakaoka (Shinichiro Nakaoka, Atsushi Nakazawa, Kazuhito Yokoi, Hirohisa Hirukawa, and Katsushi Ikeuchi, "Generating whole body motions for a biped humanoid robot from captured human dances," in International Conference on Robotics and Automation, September 2003, pp. 3905 3910, Tapei, Taiwan.) Proposed a systematic procedure and an imitation algorithm to capture traditional Japanese dances with a motion capture system and to mimic them by a humanoid robot (model HRP-1S). Such a method extracts only a few of the main movements from the captured traditional dance, and constitutes some representative movements. And the joint displacement of the humanoid robot which can mimic each representative motion was calculated | required. Subsequently, the entire dance motion was continuously expressed using the joint displacement of the robot for each representative motion. However, this method has a problem in that the body motion has to be modified in consideration of the zero moment point (ZMP) in order to satisfy the dynamic stability of the robot in the process of calculating the displacement of the joint.

지금까지의 참고 문헌 연구 결과는 주어진 인간 동작에 대한 직접적인 모방 방법에 대한 것이었다. 그러나, 이러한 연구들은 인간 동작 데이터베이스로부터 임의의 다양한 인간다운 동작들을 생성시키기에는 부적합하다. The results of the bibliographic studies so far have been on methods of direct imitation for a given human behavior. However, these studies are inadequate for generating any of a variety of humanistic behaviors from the human motion database.

한편, Asfour와 Dillmann (T. Asfour and R. Dillmann, "Human-like motion of a humanoid robot arm based on a closed-form solution of the inverse kinematics problem," in IEEE/RSJ International Conference on Intelligent Robots and Systems, October 2003, vol. 2, pp. 1407?1412.)은 인간다운 팔 동작을 생성하기 위한 다른 접근 방법을 제안하였다. 상기 제안된 다른 접근 방법은 Soechting와 Flanders ((a) J. F. Soechting and M. Flanders, "Errors in pointing are due to approximations in targets in sensorimotor transformations," in Journal of Neurophysiology, October 1989, vol. 62, pp. 595?608; (b) J. F. Soechting and M. Flanders, "Sensorimotor representations for pointing to targets in three-dimensional space,"in Journal of Neurophysiology, October 1989, vol. 62, pp. 582?594.)이 제안한 인간 팔 동작의 특징을 수식화한 모델을 사용하는 것이다. 즉, 인간의 어깨에 정의된 좌표계에 대한 손 좌표의 항으로 구성된 4개의 파라미터에 의해 구성되는 팔 동작 수학 모델을 사용하여, 주어진 목표 팔 동작에 대해 근사화된 동작을 제공하였다. 그러나, 이 방법 역시도 목표 위치, 위상과 실제 구현되는 로봇의 손이 많은 오차를 가진다. 또한, 정의된 4개의 파라미터들도 특별한 물리적인 의미를 갖지 않으므로, 인간 동작을 이해하는 데는 큰 도움을 주지 못했다.Meanwhile, Asfour and Dillmann (T. Asfour and R. Dillmann, "Human-like motion of a humanoid robot arm based on a closed-form solution of the inverse kinematics problem," in IEEE / RSJ International Conference on Intelligent Robots and Systems, October 2003, vol. 2, pp. 1407-1412., Proposed an alternative approach for generating human-like arm movements. Another proposed approach is Soechting and Flanders ((a) JF Soechting and M. Flanders, "Errors in pointing are due to approximations in targets in sensorimotor transformations," in Journal of Neurophysiology, October 1989, vol. 62, pp. 595-608; (b) JF Soechting and M. Flanders, "Sensorimotor representations for pointing to targets in three-dimensional space," in Journal of Neurophysiology, October 1989, vol. 62, pp. 582-594. We use a model that modifies the characteristics of the arm motion. That is, an arm motion mathematical model composed of four parameters consisting of terms of hand coordinates with respect to a coordinate system defined on a human shoulder was used to provide an approximated motion for a given target arm motion. However, this method also has a large error in the target position, phase and the actual robot hand. In addition, the four defined parameters do not have a special physical meaning, and thus did not greatly assist in understanding human behavior.

언급된 이전 연구 결과를 통해 하나의 인간 동작을 모방하는 것뿐만 아니라 어느 순간에서도 인간다운 동작을 실시간으로 휴머노이드 로봇이 생성할 수 있도록 하는 새로운 방법의 개발이 필요함을 알 수 있다. The previous findings suggest that not only mimicking one human motion, but also the development of a new method that allows humanoid robots to generate human-like motion in real time at any moment.

따라서, 본 발명은 모션캡쳐장비를 이용하여 수차례 측정된 인간의 팔 동작 데이터베이스로부터 인간 팔 동작을 특징 짖는 방법을 제시하고, 이 방법을 이용하여 휴머노이드 로봇이 인간다운 팔 동작을 임의로 언제든지 생성할 수 있도록 하는 것을 목적으로 한다.Accordingly, the present invention proposes a method of characterizing human arm motion from a human arm motion database measured several times using a motion capture device, by which a humanoid robot can arbitrarily generate human-like arm motion at any time. The purpose is to make sure.

본 발명은 전술한 목적을 달성하기 위하여, 인간의 팔 움직임을 본 발명에서 제시하는 "팔꿈치 들림각(Elbow Elevation Angle)"을 통해 파악하고, 상기 로봇이 상기 팔꿈치 들림각을 통해 인간의 임의적인 팔 동작을 재현할 수 있도록 한다.In order to achieve the above object, the present invention grasps the human arm movement through the "Elbow Elevation Angle" proposed in the present invention, and the robot uses the elbow lift angle to control the arbitrary arm of the human being. Allows you to reproduce the behavior.

본 발명은 전술한 목적을 달성하기 위하여, 인간의 팔 동작 재현을 위해 인간 어깨로부터의 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 획득하는 단계와; 상기 획득된 손목의 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 통하여 팔꿈치 들림각을 산출하는 단계와; 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출하는 단계와; 상기 산출된 각 관절 값을 이용하여, 상기 로봇의 관절을 제어하는 단계를 포함하는 것을 특징으로 하는 로봇의 팔 동작 제어 방법을 제공한다.In order to achieve the above object, the present invention includes the steps of acquiring the position of the wrist from the human shoulder and the angle between the normal direction of the palm and the ground to reproduce human arm motion; Calculating an elbow lift angle through the obtained position of the wrist and the angle formed between the normal direction of the palm and the ground; Calculating each joint value of the robot by using the position of the wrist, the angle between the normal direction of the palm and the ground, and the elbow lift angle; Using the calculated each joint value, it provides a method for controlling the arm motion of the robot comprising the step of controlling the joint of the robot.

실 시 예Example

이하에서는, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings an embodiment according to the present invention will be described in detail.

도 1은 본 발명의 제 1 실시예에 따른 로봇의 팔 동작 제어 방법을 나타낸 흐름도이고, 도 4는 인간의 팔 움직임의 특징을 표현하기 위하여 다양한 팔 동작에 대한 데이터베이스 구축하기 위한 실험을 나타내는 예시도이며, 도 5는 인간의 팔 움직임의 특징을 표현하기 위한 팔꿈치 들림각을 보여주는 도면이다. 그리고, 도 6은 인간 및 휴머노이드 로봇의 팔의 좌표계를 보여주는 도면이며, 도 7은 6자유도의 팔을 가진 휴머노이드 로봇의 예시도이고, 도 8은 휴머노이드 로봇의 왼팔의 좌표계를 보여주는 도면이다.1 is a flowchart illustrating a method for controlling arm motion of a robot according to a first embodiment of the present invention, and FIG. 4 is an exemplary view showing an experiment for constructing a database for various arm motions in order to express characteristics of human arm motion. 5 is a view showing the elbow lift angle for expressing the characteristics of the human arm movement. And, Figure 6 is a view showing the coordinate system of the arm of the human and humanoid robot, Figure 7 is an illustration of a humanoid robot having an arm of six degrees of freedom, Figure 8 is a view showing the coordinate system of the left arm of the humanoid robot.

이하, 도 1을 설명하면서, 도 4 내지 도 8을 함께 설명하기로 한다.Hereinafter, with reference to FIG. 1, FIGS. 4 to 8 will be described together.

도 1을 참조하여 알 수 있는 바와 같이, 본 발명에 따른 로봇의 팔 동작 제어 방법은 팔꿈치 들림각을 이용하여 로봇의 팔 동작을 제어하는 것을 특징으로 한 다. 구체적으로, 설명하면 다음과 같다.As can be seen with reference to Figure 1, the arm motion control method of the robot according to the present invention is characterized by controlling the arm motion of the robot using the elbow lifting angle. Specifically, it is as follows.

먼저, 인간의 팔 동작을 캡쳐한 궤적을 획득한다(S101). 이는 도 4를 통해 알 수 있는 바와 같이, 다양한 인간의 팔 동작을 광학식 모션캡쳐시스템을 이용하여 구축한 데이터베이스로부터 획득될 수 있다. 이때, 인간의 팔 동작은 인간의 팔에 부착된 마커를 통하여 캡쳐링되어, 데이터베이스로 구축된다.First, a trajectory of capturing a human arm motion is obtained (S101). As can be seen from FIG. 4, this can be obtained from a database in which various human arm movements are constructed using an optical motion capture system. At this time, the human arm motion is captured through a marker attached to the human arm and built into a database.

다음으로, 상기 궤적을 통하여 인간 어깨로부터의 손목 위치를 획득한다. 그리고, 상기 궤적을 통하여 손바닥의 법선 방향과 지면 간의 각도를 획득한다(S102). 이때, 상기 손목의 위치는 도 6을 통해 알 수 있는 바와 같이, 어께에 정의한 구좌표계의 두 위상각

Figure 112006088118310-pat00001
Figure 112006088118310-pat00002
, 그리고 구좌표계 원점에서 손목까지의 거리
Figure 112006088118310-pat00003
로 표현될 수 있다. 그리고, 상기 손바닥의 법선 방향과 지면 간의 각도는 손바닥 평면의 법선 벡터를 먼저 구한 후, 상기 법선벡터가 지면과 이루는 각
Figure 112006088118310-pat00004
으로 표현될 수 있다.Next, the wrist position from the human shoulder is obtained through the trajectory. Then, the angle between the palm normal direction and the ground is obtained through the trajectory (S102). At this time, the position of the wrist, as can be seen through Figure 6, two phase angles of the spherical coordinate system defined in the shoulder
Figure 112006088118310-pat00001
Wow
Figure 112006088118310-pat00002
, And the distance from the spherical coordinates origin to the wrist
Figure 112006088118310-pat00003
It can be expressed as. The angle between the palm normal direction and the ground is obtained by first obtaining a normal vector of the palm plane, and then forming an angle between the palm vector and the ground.
Figure 112006088118310-pat00004
It can be expressed as.

이어서, 상기 손목의 위치, 및 상기 손바닥의 법선 방향과 지면이 이루는 각도를 통해 팔꿈치 들림각을 산출한다. 이때, 상기 팔꿈치 들림각은 도 5에서와 같이 지면과 수직인 면(도 5에서 푸른색 선으로 이루어진 면)과 손목, 팔꿈치 그리고 어깨를 잇는 면(도 5에서 붉은 색 선으로 이루어진 면)의 사이 각으로 표현할 수 있다. 이때, 팔꿈치 들림각은 팔 자세가 지면과 수직인 경우, 즉, 도 5에서 푸른색 면과 붉은 색 면이 겹치는 경우에 "0"으로 정의한다.Subsequently, the elbow lift angle is calculated based on the position of the wrist and the angle between the normal direction of the palm and the ground. At this time, the elbow lift angle is between the surface perpendicular to the ground (surface consisting of blue lines in FIG. 5) and the wrist, elbow and shoulder (surface composed of red lines in FIG. 5) as shown in FIG. Can be expressed in degrees. At this time, the elbow lift angle is defined as "0" when the arm posture is perpendicular to the ground, that is, when the blue plane and the red plane overlap in FIG. 5.

이어서, 상기 손목의 위치, 상기 손바닥의 법선 방향, 및 팔꿈치 들림각을 이용해 로봇의 각 관절 값 산출한다(S104). 이때, 상기 로봇의 팔은 도 7 및 도8에서와 같이 적어도 5 자유도 이상을 가질 수 있는데, 구체적으로 상기 로봇은 어깨가 3 자유도를 갖도록 3개의 관절로 이루어질 수 있고, 팔꿈치가 2 자유도를 갖도록 2개의 관절로 이루어질 수 있다. 따라서, 상기 산출되어야 하는 각 관절 값은 적어도 5개의 관절에 대한 값 즉, 도 8에서와 같이

Figure 112006088118310-pat00005
값이다. 이때, 로봇의 각 관절은 모터로 구현될 수 있으므로, 상기 관절 값은 상기 모터의 회전각 변이일 수 있다. 한편, 상기 로봇은 또한 손목이 1개의 자유도를 갖도록 1개의 관절을 추가적으로 포함할 수 있다. 그러나, 손목의 관절은 전체적인 팔 움직임과 큰 개연성이 없으므로, 임의적으로 지정될 수 있다.Next, each joint value of the robot is calculated using the position of the wrist, the normal direction of the palm, and the elbow lift angle (S104). In this case, the arm of the robot may have at least five degrees of freedom, as shown in FIGS. It may consist of two joints. Therefore, each joint value to be calculated is a value for at least five joints, that is, as shown in FIG.
Figure 112006088118310-pat00005
Value. In this case, since each joint of the robot may be implemented by a motor, the joint value may be a rotation angle variation of the motor. On the other hand, the robot may further include one joint so that the wrist has one degree of freedom. However, the joints of the wrist may be arbitrarily designated since there is no great probability of arm movement and overall movement.

마지막으로, 상기 각 관절 값을 이용해 로봇의 관절을 제어한다(S105). 이때, 로봇의 각 관절은 전술한 바와 같이 모터로 구현될 수 있으므로, 상기 모터의 회전각도를 제어함으로써, 상기 로봇의 관절을 제어할 수 있다.Finally, the joints of the robot are controlled using the respective joint values (S105). In this case, since each joint of the robot may be implemented by a motor as described above, the joints of the robot may be controlled by controlling the rotation angle of the motor.

한편, 도 2는 본 발명의 제 2 실시예에 따른 로봇 제어 장치를 나타낸 구성도이다. 도 2를 참조하여 알 수 있는 바와 같이, 본 발명의 제 2 실시예에 따른 로봇 제어 장치는 로봇에 내장되는 것으로서, 전술한 팔꿈치 들림각을 이용하여 관절 값을 산출하고, 관절 제어 신호를 출력하는 것을 특징으로 한다.On the other hand, Figure 2 is a block diagram showing a robot control apparatus according to a second embodiment of the present invention. As can be seen with reference to Figure 2, the robot control apparatus according to the second embodiment of the present invention is built in the robot, to calculate the joint value using the above-described elbow lift angle, and outputs a joint control signal It is characterized by.

구체적으로, 상기 로봇 제어 장치(200)는 네트워크 인터페이스(210)와, 저장장치(220)와, 프로세서(220)를 포함한다. In detail, the robot control apparatus 200 includes a network interface 210, a storage device 220, and a processor 220.

상기 네트워크 인터페이스(210)는 전술한 인간 어깨로부터의 손목 위치(

Figure 112006088118310-pat00006
,
Figure 112006088118310-pat00007
,
Figure 112006088118310-pat00008
) 및 손바닥의 법선 방향과 지면이 이루는 각도(
Figure 112006088118310-pat00009
)를 외부로 부터 수신한다. The network interface 210 is a wrist position from the human shoulder described above (
Figure 112006088118310-pat00006
,
Figure 112006088118310-pat00007
,
Figure 112006088118310-pat00008
) And the angle between the palm's normal and the ground (
Figure 112006088118310-pat00009
) Is received from the outside.

상기 저장장치(220)는 상기 네트워크 인터페이스(210)를 통하여 수신되는 상기 손목 위치(

Figure 112006088118310-pat00010
,
Figure 112006088118310-pat00011
,
Figure 112006088118310-pat00012
) 및 손바닥의 법선 방향과 지면이 이루는 각도(
Figure 112006088118310-pat00013
)를 저장한다.The storage device 220 is the wrist position (received through the network interface 210)
Figure 112006088118310-pat00010
,
Figure 112006088118310-pat00011
,
Figure 112006088118310-pat00012
) And the angle between the palm's normal and the ground (
Figure 112006088118310-pat00013
Save).

상기 프로세서(230)는 상기 저장장치(220) 내의 상기 손목 위치(

Figure 112006088118310-pat00014
,
Figure 112006088118310-pat00015
,
Figure 112006088118310-pat00016
) 및 손바닥의 법선 방향과 지면이 이루는 각도(
Figure 112006088118310-pat00017
)를 이용하여, 팔꿈치 들림각을 산출하고, 그리고 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출한 후, 상기 로봇의 관절 제어 신호를 출력한다. The processor 230 stores the wrist position in the storage device 220
Figure 112006088118310-pat00014
,
Figure 112006088118310-pat00015
,
Figure 112006088118310-pat00016
) And the angle between the palm's normal and the ground (
Figure 112006088118310-pat00017
Calculate the elbow lift angle, and calculate the joint values of the robot using the position of the wrist, the angle between the normal direction of the palm and the ground, and the elbow lift angle. Output a control signal.

한편, 도 3은 본 발명의 제 3 실시예에 따른 로봇 제어 장치를 나타낸 구성도이다.On the other hand, Figure 3 is a block diagram showing a robot control apparatus according to a third embodiment of the present invention.

도 3을 참조하여 알 수 있는 바와 같이, 본 발명의 제 3 실시예에 따른 로봇 제어 장치(300)는 로봇을 원격으로 제어하는 것으로서, 전술한 팔꿈치 들림각을 이용하여 관절 값을 산출하고, 관절 제어 신호를 출력하는 것을 특징으로 한다.As can be seen with reference to Figure 3, the robot control apparatus 300 according to the third embodiment of the present invention to control the robot remotely, calculates the joint value by using the elbow lift angle described above, It is characterized by outputting a control signal.

구체적으로, 상기 로봇 제어 장치(300)는 네트워크 인터페이스(310), 저장장치(320)와, 프로세서(330)로 구성된다.In detail, the robot control apparatus 300 includes a network interface 310, a storage device 320, and a processor 330.

상기 저장장치(320)는 인간의 팔 동작을 캡쳐링한 궤적을 저장한다.The storage device 320 stores a trajectory for capturing a human arm motion.

상기 프로세서(330)는 상기 저장장치(320) 내의 상기 궤적을 통해 인간 어깨로부터의 손목위치(

Figure 112006088118310-pat00018
,
Figure 112006088118310-pat00019
,
Figure 112006088118310-pat00020
) 및 손바닥의 법선 방향과 지면이 이루는 각도(
Figure 112006088118310-pat00021
)를 획득하고, 상기 획득된 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 이용하여, 팔꿈치 들림각을 산출한다. 그리고, 상기 프로세서(330)는 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출한 후, 상기 로봇의 관절 제어 신호를 출력한다.The processor 330 is a wrist position from the human shoulder through the trajectory in the storage device 320 (
Figure 112006088118310-pat00018
,
Figure 112006088118310-pat00019
,
Figure 112006088118310-pat00020
) And the angle between the palm's normal and the ground (
Figure 112006088118310-pat00021
), And the elbow lift angle is calculated using the obtained wrist position and the angle between the normal direction of the palm and the ground. The processor 330 calculates each joint value of the robot using the position of the wrist, the angle between the normal direction of the palm and the ground, and the elbow lift angle, and then outputs a joint control signal of the robot. .

상기 네트워크 인터페이스(310)는 상기 로봇의 관절 제어 신호를 상기 로봇으로 송신한다.The network interface 310 transmits a joint control signal of the robot to the robot.

지금까지는, 본 발명에 따른 로봇의 팔 동작 제어 방법, 및 로봇 제어 장치에 대해서 설명하였다. So far, the arm motion control method and robot control apparatus of the robot which concern on this invention were demonstrated.

이하에서는, 전술한 모션캡쳐링을 통해 파악되는 인간의 팔 동작을 팔꿈치 들림각을 통하여 정의한 근거를 설명하고, 상기 팔꿈치 들림각을 수학식을 통하여 보다 상세하게 설명하기로 한다. 또한, 상기 팔꿈치 들림각을 통하여 로봇의 관절 값을 구하는 것에 대해서 수학식을 통하여 보다 상세하게 설명하기로 한다.Hereinafter, the basis for defining the human arm motion through the above-described motion capturing through the elbow lift angle will be described, and the elbow lift angle will be described in more detail through an equation. In addition, obtaining the joint value of the robot through the elbow lift angle will be described in more detail with reference to the following equation.

모션캡쳐링Motion capturing

인간의 다양한 팔 동작을 얻기 위하여 도 4에서와 같이 모션캡쳐시스템을 이용한 실험을 행하였다. 이때, 실험 중의 연기자는 자유롭게 팔의 자세를 취하도록 하였다. 연기자의 팔이 도달할 수 있는 영역을 지면과 수직한 6개의 면으로 가능한 동등하게 구분 짓고, 상기 구분된 영역 내에서 도 4에서와 같이 여러 횟수의 팔 동작 실험을 행하였다. 연기자는 5초 동안 5개의 서로 다른 지름을 갖는 원을 그리는 실험을 하였고, 이와 같은 실험을 손바닥의 방향을 좌우로 변화시키면서 여러 번, 즉 적어도 3회 이상을 반복한다. In order to obtain various arm motions of a human, an experiment using a motion capture system was performed as shown in FIG. 4. At this time, the performer during the experiment was free to take the position of the arm. The area where the arm of the performer could reach was divided equally into six planes perpendicular to the ground, and the arm motion experiment was performed several times as shown in FIG. The actor experimented with five different diameter circles for five seconds, and repeated this experiment several times, at least three times, with the palms changing from side to side.

팔꿈치 elbow 들림각Lifting angle (( ElbowElbow ElevationElevation AngleAngle ) 정의) Justice

상기와 같은 실험을 통해 인간의 팔 동작 데이터베이스를 구축한 후, 관찰하여 보면 여러 동작을 구성하는 손과 팔의 자세는 손목의 공간상 위치, 손의 위상, 팔꿈치의 자세 등에 의해서 팔의 전체적인 동작이 결정됨을 알 수 있다. After constructing the human arm motion database through the above experiment, the hand and arm postures, which constitute various motions, can be observed by the overall position of the arm due to the spatial position of the wrist, the phase of the hand, and the elbow posture. It can be seen that the decision.

이들 중 상기 손목의 공간상의 위치는 인간의 손에 부착된 마커의 궤적을 이용하여 얻을 수 있다. 그리고, 상기 손의 위상은 손바닥의 법선 방향을 이용하여 얻을 수 있다.Among these, the spatial position of the wrist can be obtained by using the trajectory of the marker attached to the human hand. The phase of the hand can be obtained using the normal direction of the palm.

그리고, 상기 팔꿈치 자세는 도 5에서와 같이 지면과 수직인 면(도 5에서 푸른색 선으로 이루어진 면)과 손목, 팔꿈치 그리고 어깨를 잇는 면(도 5에서 붉은 색 선으로 이루어진 면)의 사이 각으로 표현할 수 있다. 이 사이 각을 "팔꿈치 들림각(Elbow Elevation Angle)"이라고 정의한다. 이때, 전술한 바와 같이 팔 자세가 지면과 수직인 경우, 즉 도 5에서 푸른색 면과 붉은 색 면이 겹치는 경우에 팔꿈치 들림각을 "0"으로 정의한다. In addition, the elbow posture is an angle between a surface perpendicular to the ground (a surface composed of blue lines in FIG. 5) and a wrist, elbow, and shoulder connecting surface (a surface composed of red lines in FIG. 5) as shown in FIG. 5. It can be expressed as The angle between them is defined as "Elbow Elevation Angle". In this case, as described above, when the arm posture is perpendicular to the ground, that is, when the blue plane and the red plane overlap in FIG. 5, the elbow lift angle is defined as “0”.

이와 같은 상기 손목의 공간상 위치, 손의 위상, 상기 팔꿈치 들림각을 데이터베이스를 통해 획득한 후, 면밀히 관찰하면, 상기 팔꿈치 들림각 하나로만으로도 결국 상기 손목의 위치와 손의 위상을 대표함을 알 수 있다.After acquiring the spatial position of the wrist, the phase of the hand, and the elbow lift angle through a database, when closely observed, it can be seen that the elbow lift angle alone represents the wrist position and the hand phase. have.

따라서, 팔꿈치 들림각을 이용하여, 로봇의 팔을 제어하면, 로봇이 인간처럼 자연스럽게 동작하도록 제어할 수 있다.Therefore, by using the elbow lift angle to control the robot's arm, it is possible to control the robot to operate naturally like a human.

팔꿈치 elbow 들림각Lifting angle 특성방정식 Characteristic equation

상기 팔꿈치 들림각을 도 4에서와 같이 구축된 데이터베이스로부터 파악가능한 손목 위치와 손바닥의 방향을 통해 산출하기 위하여, 수학적 모델링을 도입한다. Mathematical modeling is introduced to calculate the elbow lift angle through the wrist position and palm orientation that can be seen from a database constructed as in FIG. 4.

이때, 상기 수학적 모델링은 응답면기법(Response Surface Method) (Myers, Raymond H. and D. C. Montgomery (2002), Response Surface Methodology, John Wiley & Sons, Inc., 605 3th Avenue , New York, NY 10158-0012)을 통하여 이루어질 수 있다. 이러한, 상기 응답면기법은 어떤 시스템에 대해 조절 가능한 입력 값과 그 출력 사이의 관계를 나타내는 하나의 기법이다.In this case, the mathematical modeling is the response surface method (Myers, Raymond H. and DC Montgomery (2002), Response Surface Methodology, John Wiley & Sons, Inc., 605 3th Avenue, New York, NY 10158-0012) Can be achieved through This response surface technique is one technique that represents the relationship between an adjustable input value and its output for a system.

따라서, 본 발명에서는 반응함수를 통하여 상기 입력 값으로서 손목의 공간상의 위치와 손바닥의 법선 방향을 사용하고, 출력으로서 팔꿈치 들림각을 산출한다.Therefore, in the present invention, the position of the wrist and the normal direction of the palm are used as the input value through the reaction function, and the elbow lift angle is calculated as the output.

Figure 112006088118310-pat00022
(1)
Figure 112006088118310-pat00022
(One)

여기서

Figure 112006088118310-pat00023
는 실험 결과이고
Figure 112006088118310-pat00024
은 실험결과
Figure 112006088118310-pat00025
의 미지의 반응함수이다. 그리고
Figure 112006088118310-pat00026
은 인간의 실제 팔꿈치 들림각과 반응함수를 통해 산출되는 팔꿈치 들림각 간의 오차를 나타낸다.
Figure 112006088118310-pat00027
은 조절 가능한 입력 변수 벡터로, 여기서는 손목의 위치 벡터 성분과 손바닥의 법선 벡터가 지면과 이루는 각으로 이루어진다. 이때, 손목의 위치는 마커 데이터를 이용하여 어께에 정의한 구좌표계의 두 위상각
Figure 112006088118310-pat00028
Figure 112006088118310-pat00029
, 그리고 구좌표계 원점에서 손목까지의 거리
Figure 112006088118310-pat00030
로 표현될 수 있다. 또한, 손바닥의 법선 벡터는 손에 부착된 세 개의 마커 데이터를 이용하여 손바닥 평면의 법선벡터를 구하고 이 법선벡터가 지면과 이루는 각
Figure 112006088118310-pat00031
Figure 112006088118310-pat00032
의 나머지 성분으로 정의함으로써, 얻어질 수 있다: 즉,
Figure 112006088118310-pat00033
here
Figure 112006088118310-pat00023
Is the result of the experiment
Figure 112006088118310-pat00024
Results
Figure 112006088118310-pat00025
This is an unknown reaction function. And
Figure 112006088118310-pat00026
Represents the error between the actual elbow lift angle and the elbow lift angle calculated by the response function.
Figure 112006088118310-pat00027
Is an adjustable input variable vector, where the position vector component of the wrist and the normal vector of the palm are the angles that make up the ground. At this time, the position of the wrist is two phase angles of the spherical coordinate system defined in the shoulder using marker data.
Figure 112006088118310-pat00028
Wow
Figure 112006088118310-pat00029
, And the distance from the spherical coordinates origin to the wrist
Figure 112006088118310-pat00030
It can be expressed as. In addition, the palm normal vector uses three marker data attached to the hand to obtain the normal vector of the palm plane, and the angle formed by the normal vector to the ground.
Figure 112006088118310-pat00031
To
Figure 112006088118310-pat00032
By defining the remaining components of, it can be obtained:
Figure 112006088118310-pat00033

상기 반응함수

Figure 112006088118310-pat00034
은 다음과 같은 근사함수를 이용하여 정의될 수 있다.The reaction function
Figure 112006088118310-pat00034
Can be defined using the following approximation function:

Figure 112006088118310-pat00035
(2)
Figure 112006088118310-pat00035
(2)

여기서

Figure 112006088118310-pat00036
는 반응함수의 항의 수를 나타내고,
Figure 112006088118310-pat00037
은 형상함수(혹은 기본함수)라고 부르는 근사식의 형태를 결정 짖는 함수를 나타낸다. 또한,
Figure 112006088118310-pat00038
는 각 형상함수의 미지의 계수이다. 이들 계수들은 주어진 실험 결과를 이용하여 결정될 수 있다. here
Figure 112006088118310-pat00036
Represents the number of terms in the reaction function,
Figure 112006088118310-pat00037
Represents a function that determines the form of the approximation called a shape function (or basic function). Also,
Figure 112006088118310-pat00038
Is the unknown coefficient of each shape function. These coefficients can be determined using the given experimental results.

전술한 바와 같이 여러 번의 실험의 실험에서 각각의 결과가 주어졌을 때의 오차

Figure 112006088118310-pat00039
는 수학식(1)과 수학식(2)에 따라 다음과 같이 나타낼 수 있다.As described above, the error when each result is given in the experiment of several experiments
Figure 112006088118310-pat00039
Can be expressed as follows according to equations (1) and (2).

Figure 112006088118310-pat00040
(3)
Figure 112006088118310-pat00040
(3)

여기서 N은 실험횟수이다.

Figure 112006088118310-pat00041
은 j번째 실험에서 얻을 수 있는 팔꿈치 들림각의 실험치이고,
Figure 112006088118310-pat00042
은 이 j번째 실험치와 그에 대응하는 반응함수
Figure 112006088118310-pat00043
와의 오차를 의미한다.
Figure 112006088118310-pat00044
는 j번째 실험의 입력 변수 벡터이다. 수학식(3)을 행렬 형식으로 다시 정리하면,Where N is the number of experiments.
Figure 112006088118310-pat00041
Is the experimental elbow lift angle obtained from the jth experiment,
Figure 112006088118310-pat00042
Is the jth experimental value and the corresponding response function
Figure 112006088118310-pat00043
It means the error between and.
Figure 112006088118310-pat00044
Is the input variable vector of the j th experiment. If we rearrange Equation (3) in matrix form,

Figure 112006088118310-pat00045
(4)
Figure 112006088118310-pat00045
(4)

을 얻는다. 여기서 X는

Figure 112006088118310-pat00046
를 요소로 갖는 N×NB 행렬이다. 미지 벡터
Figure 112006088118310-pat00047
는 오차 벡터
Figure 112006088118310-pat00048
의 크기의 제곱, 즉,
Figure 112006088118310-pat00049
을 최소화함으로써 다음과 같이 결정된다.Get Where X is
Figure 112006088118310-pat00046
N × NB matrix with. Unknown vector
Figure 112006088118310-pat00047
Error vector
Figure 112006088118310-pat00048
Square of the magnitude of,
Figure 112006088118310-pat00049
By minimizing this, it is determined as follows.

Figure 112006088118310-pat00050
(5)
Figure 112006088118310-pat00050
(5)

따라서, 수학식(2)의 반응 함수가 결정될 수 있다. Thus, the response function of equation (2) can be determined.

한편, 상기 응답면기법(Response Surface Method)를 적용하는데 있어 입력 변수벡터

Figure 112006088118310-pat00051
의 성분을 정규화하는 것이 효과적이다. 각 성분들은 크기에 있어 서로 간에 큰 차이를 가지므로 입력 변수의 영향을 최소화하고 반응함수의 근사화에 따른 오차를 줄이기 위해 정규화할 필요가 있다. On the other hand, in applying the response surface method (Response Surface Method) input variable vector
Figure 112006088118310-pat00051
It is effective to normalize the components of. Since each component has a large difference in size, it needs to be normalized to minimize the influence of the input variables and reduce the error due to the approximation of the response function.

본 발명에서는 각 성분의 크기를 무차원 크기로 2 이내로 가지게끔 정규화한다. 이러한 정규화 과정은 단순히 상수를 곱하여 스케일링하는 것이므로 상세한 설명은 생략하도록 한다. 또한, 크기에 대한 특별한 제한은 없다. 정규화된 입력 변수벡터는 다음과 같다.In the present invention, the size of each component is normalized to have a dimensionless size of 2 or less. Since this normalization process is simply a multiplication by a constant, a detailed description thereof will be omitted. In addition, there is no particular limitation on the size. The normalized input variable vector is

Figure 112006088118310-pat00052
(6)
Figure 112006088118310-pat00052
(6)

여기서 모든 입력변수의 머리 위의 ‘-’ 는 정규화된 변수임을 나타낸다.Here, the '-' at the head of every input variable indicates that it is a normalized variable.

수학식(2)의 형상함수(shape function)로 이차방정식을 사용하였고 이는 Response Surface Method를 사용하는데 있어서 가장 많이 이용되는 함수이다. 이차방정식 이외의 형상함수를 사용하는 것도 무방하다. 실제로 수학식(2)부터 수학식(5)까지의 실험에서 얻어지는 입력변수벡터

Figure 112006088118310-pat00053
는 수학식(6)에 따라서 정규화한 후, 수학식(5)를 사용하여 미지 계수벡터
Figure 112006088118310-pat00054
를 얻는다. The quadratic equation is used as the shape function of Equation (2), which is the most used function in using the response surface method. It is also possible to use a shape function other than the quadratic equation. Actually, the input variable vector obtained in the experiments from Equation (2) to Equation (5).
Figure 112006088118310-pat00053
Is normalized according to Equation (6), and then unknown coefficient vector using Equation (5).
Figure 112006088118310-pat00054
Get

정규화된 4개의 입력변수를 이용하여 팔꿈치 들림각에 대한 반응함수를 최종적으로 정의하면 다음과 같다.Finally, the response function for elbow lift angle is defined using four normalized input variables.

Figure 112006088118310-pat00055
(7)
Figure 112006088118310-pat00055
(7)

여기서

Figure 112006088118310-pat00056
은 정규화된 입력변수로 구성된 팔꿈치 들림각의 반응함수이고, 입력변수는
Figure 112006088118310-pat00057
이다. here
Figure 112006088118310-pat00056
Is the response function of the elbow lift angle composed of normalized input variables.
Figure 112006088118310-pat00057
to be.

수학식(7)에 대해 수학식(5)를 적용하여 미지의 계수

Figure 112006088118310-pat00058
를 구하여 인간의 팔 움직임을 특징짓는 특성방정식인 팔꿈치 들림각 식을 완성할 수 있다.Unknown coefficient by applying Equation (5) to Equation (7)
Figure 112006088118310-pat00058
We can complete the elbow lift angle equation, a characteristic equation that characterizes human arm movement.

일단 인간의 팔꿈치 들림각 식이 완성되면 휴머노이드 로봇에 바로 적용할 수 있다. 즉, 원하고자하는 휴머노이드 로봇의 손목 위치(

Figure 112006088118310-pat00059
,
Figure 112006088118310-pat00060
,
Figure 112006088118310-pat00061
)와 손바닥의 방향(
Figure 112006088118310-pat00062
)이 주어지면 이에 대응하는 로봇에 적합한 인간다운 팔꿈치의 들림각을 수학식(7)로부터 얻을 수 있다. 물론 이때, 입력 변수 값은 수학식(6)에 설명한 대로 정규화시켜야한다.Once the elbow lift angle expression is completed, it can be applied directly to humanoid robots. That is, the wrist position of the humanoid robot
Figure 112006088118310-pat00059
,
Figure 112006088118310-pat00060
,
Figure 112006088118310-pat00061
) And palm orientation (
Figure 112006088118310-pat00062
), The lifting angle of the human-like elbow suitable for the corresponding robot can be obtained from Equation (7). Of course, at this time, the input variable value should be normalized as described in Equation (6).

역기구학을Inverse kinematics 이용한 인간다운 팔꿈치  Human elbow 들림각Lifting angle 구현 avatar

수학식(7)에서 얻은 인간의 것과 유사한 팔꿈치 들림각을 휴머노이드 로봇이 실제로 생성하여 동작하기 위해서는 손을 제외한 팔의 다른 관절을 적합하게 움직일 수 있도록 역기구학을 적용하여야 한다.In order for the humanoid robot to actually generate and operate an elbow lift angle similar to that obtained in Equation (7), inverse kinematics should be applied to properly move the other joints of the arm except the hand.

도 7 및 도 8을 참조하여 알 수 있는 바와 같이, 본 발명에서 6 자유도를 갖는 로봇 팔을 고려한다. 즉, 어깨에 3 자유도, 팔꿈치에 2 자유도, 그리고 손목에 1자유도를 갖는다. As can be seen with reference to FIGS. 7 and 8, a robotic arm with six degrees of freedom is contemplated in the present invention. That is, they have three degrees of freedom on their shoulders, two degrees of freedom on their elbows, and one degree of freedom on their wrists.

이들 자유도에 대한 역기구학을 풀기 위해서는 6개의 조건식이 필요하다. 통상은 손의 위치에서 3가지 조건, 손의 위상에서 3가지 조건을 사용하여 역기구학 문제를 해결한다. 그러나 이 방법은 인간다운 팔 움직임을 보장해주지 못한다. To solve the inverse kinematics for these degrees of freedom, six conditional expressions are required. Typically, three conditions at the hand position and three conditions at the hand phase are used to solve the inverse kinematics problem. However, this method does not guarantee human arm movement.

따라서 본 발명에서는 손의 3차원 위치좌표, 손바닥 방향, 그리고 이들 값으로 계산되는 팔꿈치 들림각이 주어졌을 때, 5개의 로봇 팔 관절 값(도 8에서

Figure 112006088118310-pat00063
)을 계산할 수 있는 방법을 설명한다. 다만, 도 8에서의 로봇의 손목굽힘각(Hand Stool angle)(도 8에서의
Figure 112006088118310-pat00064
)은 인간다운 팔 자세에는 큰 영향을 미치지 않아 사용자에 의해 정의하도록 한다.Therefore, in the present invention, given the three-dimensional position coordinates of the hand, the palm direction, and the elbow lift angle calculated from these values, five robot arm joint values (in FIG. 8).
Figure 112006088118310-pat00063
Explain how you can calculate However, the hand stool angle of the robot in FIG. 8 (in FIG.
Figure 112006088118310-pat00064
) Does not significantly affect the human arm posture and is defined by the user.

전술한 바와 같이, 6자유도 로봇 팔에 대해 역기구학을 적용하려면, 6개의 조건이 필요하다. As mentioned above, six conditions are required to apply inverse kinematics to a six degree of freedom robotic arm.

본 발명에서 이 6가지 조건은 로봇이 목표로 하는 팔 자세에 대한 입력 값으로 어깨의 구좌표계에서 본 손목 위치(

Figure 112006088118310-pat00065
,
Figure 112006088118310-pat00066
,
Figure 112006088118310-pat00067
) 3개 조건과 손바닥의 방향과 지면이 이루는 각(
Figure 112006088118310-pat00068
)의 1개 조건, 그리고 수학식8의 팔꿈치 들림각을 포함하여 일단 5개의 조건식을 얻을 수 있다. 다만, 마지막 조건인 손목굽힘각(도 8에서의
Figure 112006088118310-pat00069
)은 사용자에 의해 정의된다. In the present invention, these six conditions are input values for the arm posture that the robot targets, and the wrist position as seen from the spherical coordinate system of the shoulder (
Figure 112006088118310-pat00065
,
Figure 112006088118310-pat00066
,
Figure 112006088118310-pat00067
) 3 conditions and the angle between the direction of the palm and the ground (
Figure 112006088118310-pat00068
Five conditions can be obtained once, including one condition of), and the elbow lift angle of Equation (8). However, the wrist bending angle which is the last condition (in FIG.
Figure 112006088118310-pat00069
) Is defined by the user.

이들 6개의 조건식으로 기하학적인 접근방법에 기초하여 역기구학 문제를 다음 단계에 따라 해결하도록 한다:These six conditional formulas solve the inverse kinematics problem based on the geometric approach by following these steps:

(1)

Figure 112006088118310-pat00070
계산 (One)
Figure 112006088118310-pat00070
Calculation

먼저, 손목 위치(

Figure 112006088118310-pat00071
,
Figure 112006088118310-pat00072
,
Figure 112006088118310-pat00073
)와 손바닥의 방향각(
Figure 112006088118310-pat00074
)이 주어지면 인간다운 팔꿈치 들림각을 수학식(7)로부터 알 수 있다. 도 8의
Figure 112006088118310-pat00075
은 도 6의 (a)와 (b)에서 알 수 있는 바와 같이 단지 어깨와 손목까지의 거리에 대한 함수로 표현됨을 알 수 있다. 따라서,
Figure 112006088118310-pat00076
은First, wrist position (
Figure 112006088118310-pat00071
,
Figure 112006088118310-pat00072
,
Figure 112006088118310-pat00073
) And palm orientation angle (
Figure 112006088118310-pat00074
) Can be known from Equation (7). Of FIG. 8
Figure 112006088118310-pat00075
As can be seen in (a) and (b) of Figure 6 it can be seen that it is expressed only as a function of the distance to the shoulder and wrist. therefore,
Figure 112006088118310-pat00076
silver

Figure 112006088118310-pat00077
(8)
Figure 112006088118310-pat00077
(8)

이다. 여기서,

Figure 112006088118310-pat00078
Figure 112006088118310-pat00079
은 도 6에서와 같이 로봇의 위팔과 아래팔의 길이이고,
Figure 112006088118310-pat00080
은 손목위치의 구좌표계 값이다.to be. here,
Figure 112006088118310-pat00078
Wow
Figure 112006088118310-pat00079
Is the length of the upper and lower arms of the robot, as shown in Figure 6,
Figure 112006088118310-pat00080
Is the spherical coordinates of the wrist position.

(2)

Figure 112006088118310-pat00081
Figure 112006088118310-pat00082
계산 (2)
Figure 112006088118310-pat00081
and
Figure 112006088118310-pat00082
Calculation

도 8의

Figure 112006088118310-pat00083
Figure 112006088118310-pat00084
은 도 6의 (b)에서 알 수 있는 바와 같이 관절 벡터
Figure 112006088118310-pat00085
에 의해 결정된다. 도 6의 (a)와 (b)에서 구좌표계의 위상각치
Figure 112006088118310-pat00086
,
Figure 112006088118310-pat00087
, 그리고 팔꿈치 들림각
Figure 112006088118310-pat00088
가 "0"의 값을 가지는 경우의
Figure 112006088118310-pat00089
를 벡터
Figure 112006088118310-pat00090
로 정의한다. 이때, 벡터
Figure 112006088118310-pat00091
와 어깨에서 손목으로의 위치 벡터 (도 6(b)에서
Figure 112006088118310-pat00092
)에 의해 구성되는 면은 어깨에 위치한 좌표계의 x-z면과 평행이다(도 6 (b) 참조). 이러한 기하학적인 관계를 이용하여 벡터
Figure 112006088118310-pat00093
의 성분을 다음과 같이 얻는다.Of FIG. 8
Figure 112006088118310-pat00083
and
Figure 112006088118310-pat00084
Is a joint vector as can be seen in FIG.
Figure 112006088118310-pat00085
Determined by Phase angle values of the spherical coordinate system in (a) and (b) of FIG.
Figure 112006088118310-pat00086
,
Figure 112006088118310-pat00087
, And elbow lift angle
Figure 112006088118310-pat00088
Has a value of "0"
Figure 112006088118310-pat00089
Vector
Figure 112006088118310-pat00090
Defined as Vector
Figure 112006088118310-pat00091
Position vector from shoulder to wrist (in Figure 6 (b)
Figure 112006088118310-pat00092
) Is parallel to the xz plane of the coordinate system located on the shoulder (see FIG. 6 (b)). Vector of these geometric relationships
Figure 112006088118310-pat00093
The component of is obtained as follows.

Figure 112006088118310-pat00094
(9)
Figure 112006088118310-pat00094
(9)

벡터

Figure 112006088118310-pat00095
은 수학식(7)의 팔꿈치 들림각
Figure 112006088118310-pat00096
과 손목의 구좌표계 값
Figure 112006088118310-pat00097
,
Figure 112006088118310-pat00098
에 의해 얻어진다.vector
Figure 112006088118310-pat00095
Is the elbow lift angle in equation (7)
Figure 112006088118310-pat00096
And spherical coordinates of the wrist
Figure 112006088118310-pat00097
,
Figure 112006088118310-pat00098
Obtained by

Figure 112006088118310-pat00099
(10)
Figure 112006088118310-pat00099
10

여기서 ,

Figure 112006088118310-pat00100
,
Figure 112006088118310-pat00101
그리고
Figure 112006088118310-pat00102
Figure 112006088118310-pat00103
,
Figure 112006088118310-pat00104
그리고
Figure 112006088118310-pat00105
에 의해 정의되는 오일러(Euler) 각의 회전행렬을 나타낸다. 일단,
Figure 112006088118310-pat00106
을 구한 후에는 도 6(a) 및 (b)에서 알 수 있는 바와 같이 기하학적으로 손쉽게 관절 각
Figure 112006088118310-pat00107
Figure 112006088118310-pat00108
을 구할 수 있다.here ,
Figure 112006088118310-pat00100
,
Figure 112006088118310-pat00101
And
Figure 112006088118310-pat00102
silver
Figure 112006088118310-pat00103
,
Figure 112006088118310-pat00104
And
Figure 112006088118310-pat00105
Represents the rotation matrix of the Euler angle defined by. First,
Figure 112006088118310-pat00106
After obtaining, as shown in FIGS. 6 (a) and (b), the joint angles are geometrically easy.
Figure 112006088118310-pat00107
and
Figure 112006088118310-pat00108
Can be obtained.

Figure 112006088118310-pat00109
(11)
Figure 112006088118310-pat00109
(11)

Figure 112006088118310-pat00110
(12)
Figure 112006088118310-pat00110
(12)

여기서

Figure 112006088118310-pat00111
,
Figure 112006088118310-pat00112
그리고
Figure 112006088118310-pat00113
Figure 112006088118310-pat00114
의 x, y, z 성분을 나타낸다.here
Figure 112006088118310-pat00111
,
Figure 112006088118310-pat00112
And
Figure 112006088118310-pat00113
silver
Figure 112006088118310-pat00114
X, y, and z components are shown.

(3)

Figure 112006088118310-pat00115
계산 (3)
Figure 112006088118310-pat00115
Calculation

어깨에 정의된 직교좌표계에 대한 손목 위치는 도 6(b)에서와 같이 아래와 같다.Wrist position with respect to the Cartesian coordinate system defined on the shoulder is as shown in Figure 6 (b).

Figure 112006088118310-pat00116
(13)
Figure 112006088118310-pat00116
(13)

여기서

Figure 112006088118310-pat00117
는 i번째 좌표계에서 j번째 좌표계로 변환시켜주는 변환행렬(Homogeneous Transformation Matrix)이다.
Figure 112006088118310-pat00118
은 어깨로부터 4번째 좌표계에서 본 손목의 위치 벡터이다: 즉,
Figure 112006088118310-pat00119
.here
Figure 112006088118310-pat00117
Is a transformation matrix (Homogeneous Transformation Matrix) that transforms from the i th coordinate system to the j th coordinate system.
Figure 112006088118310-pat00118
Is the position vector of the wrist in the fourth coordinate system from the shoulder:
Figure 112006088118310-pat00119
.

손목의 위치 벡터와 수학식(8), 수학식(11), 수학식(12)에서 얻은

Figure 112006088118310-pat00120
,
Figure 112006088118310-pat00121
,
Figure 112006088118310-pat00122
의 값을 수학식(13)에 대입하면
Figure 112006088118310-pat00123
을 얻을 수 있다.Position vector of wrist and obtained from equation (8), equation (11) and equation (12)
Figure 112006088118310-pat00120
,
Figure 112006088118310-pat00121
,
Figure 112006088118310-pat00122
Substituting the value of into Equation (13)
Figure 112006088118310-pat00123
Can be obtained.

Figure 112006088118310-pat00124
(14)
Figure 112006088118310-pat00124
(14)

여기서,here,

Figure 112006088118310-pat00125
(15)
Figure 112006088118310-pat00125
(15)

Figure 112006088118310-pat00126
Figure 112006088118310-pat00126

(16)(16)

(4)

Figure 112006088118310-pat00127
계산 (4)
Figure 112006088118310-pat00127
Calculation

마지막으로,

Figure 112006088118310-pat00128
를 구하기 위해서는 도 6(b)에서 알 수 있는 바와 같이먼저
Figure 112006088118310-pat00129
를 다음과 같이 계산하여야 한다.Finally,
Figure 112006088118310-pat00128
To obtain, as can be seen in Figure 6 (b) first
Figure 112006088118310-pat00129
Should be calculated as follows.

Figure 112006088118310-pat00130
(17)
Figure 112006088118310-pat00130
(17)

여기서

Figure 112006088118310-pat00131
은 팔꿈치에서 손목으로의 위치 벡터와 지면으로부터 위로 향하는 벡터에 의해 형성되는 면의 법선 벡터이다.
Figure 112006088118310-pat00132
은 어깨, 손목 그리고 팔꿈치로 이루어진 면의 법선 벡터이다. 따라서 주어진 손바닥과 지면과의 사이각
Figure 112006088118310-pat00133
Figure 112006088118310-pat00134
의 차이가 구하려는
Figure 112006088118310-pat00135
이다. here
Figure 112006088118310-pat00131
Is the normal vector of the face formed by the position vector from the elbow to the wrist and the vector pointing up from the ground.
Figure 112006088118310-pat00132
Is the normal vector of the face of the shoulders, wrists and elbows. Thus the angle between the given palm and the ground
Figure 112006088118310-pat00133
Wow
Figure 112006088118310-pat00134
Want to get the difference
Figure 112006088118310-pat00135
to be.

즉,

Figure 112006088118310-pat00136
는 다음의 수학식 19를 통해 구해질 수 있다.In other words,
Figure 112006088118310-pat00136
Can be obtained through Equation 19 below.

Figure 112006088118310-pat00137
(18)
Figure 112006088118310-pat00137
(18)

1 ~ 4단계에서 얻은 관절 값과 사용자에 의해 주어진

Figure 112006088118310-pat00138
를 포함하여
Figure 112006088118310-pat00139
의 모든 6개 관절 값을 구할 수 있다. 또한, 인간다운 팔꿈치 들림각이 사용되었으므로 생성된 로봇의 팔 동작은 인간과 유사한 형태를 갖게 된다.The joint values obtained in steps 1 to 4 and given by the user
Figure 112006088118310-pat00138
Including
Figure 112006088118310-pat00139
All six joints can be found. In addition, since a human-like elbow lift angle is used, the generated arm motion of the robot has a shape similar to that of a human.

이상에서는 본 발명의 바람직한 실시예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시예에만 한정되는 것은 아니므로, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다. In the above description of the preferred embodiments of the present invention by way of example, the scope of the present invention is not limited only to these specific embodiments, the present invention is in various forms within the scope of the spirit and claims of the present invention Can be modified, changed, or improved.

이상에서 살펴본 바와 같이, 본 발명은 인간의 팔 동작 데이터베이스를 이용하여 인간의 팔 움직임을 특징지을 수 있는 수학 모델로써 팔꿈치 들림각을 제안했다. 이러한 본 발명은 최소 5자유도(어깨3, 팔꿈치 1, 손목 1)를 갖는 어떠한 로봇 팔에 대해서도 임의의 팔 움직임을 실시간으로 생성시킬 수 있다. As described above, the present invention proposed an elbow lift angle as a mathematical model that can characterize human arm movement using a human arm motion database. This invention can generate any arm movement in real time for any robotic arm having at least 5 degrees of freedom (shoulder 3, elbow 1, wrist 1).

또한, 본 발명은 팔꿈치 들림각으로 인해 손목이 목표 위치로 이동하는데에도 전혀 영향을 주지 않으므로 역기구학 문제에서의 목표위치에 대한 오차는 없다. 따라서, 선반 위 혹은 정해진 지점의 물건을 쥐기 위해서 팔을 움직이는 경우, 물건을 쥐고 조작할 때의 팔 움직임 생성 등에 적극 활용할 수 있는 장점이 있다.In addition, since the present invention does not affect the movement of the wrist to the target position at all due to the elbow lift angle, there is no error about the target position in the inverse kinematics problem. Therefore, when the arm is moved to grab an object on a shelf or a predetermined point, there is an advantage that it can be actively utilized for generating an arm movement when holding and manipulating an object.

Claims (10)

인간의 팔 동작을 캡쳐링한 궤적을 통해 획득가능한 인간 어깨로부터의 손목 위치와; 그리고 상기 궤적을 통해 획득가능한 인간의 손바닥의 법선 방향과 지면이 이루는 각도로 표현가능한 팔꿈치 들림각을 이용하여 로봇의 팔동작을 제어하는 것을 특징으로 하는 로봇의 팔동작 제어 방법.Wrist position from a human shoulder obtainable via a trajectory capturing human arm motion; And controlling the arm movement of the robot using an elbow lift angle that can be expressed by an angle formed by the normal direction of the palm of the human hand and an angle formed by the trajectory. 삭제delete 삭제delete 인간의 팔 동작 재현을 위해 인간 어깨로부터의 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 획득하는 단계와;Acquiring the position of the wrist from the human shoulder and the angle between the normal direction of the palm and the ground to reproduce human arm motion; 상기 획득된 손목의 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 통하여 팔꿈치 들림각을 산출하는 단계와;Calculating an elbow lift angle through the obtained position of the wrist and the angle formed between the normal direction of the palm and the ground; 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출하는 단계와;Calculating each joint value of the robot by using the position of the wrist, the angle between the normal direction of the palm and the ground, and the elbow lift angle; 상기 산출된 각 관절 값을 이용하여, 상기 로봇의 관절을 제어하는 단계를 포함하는 것을 특징으로 하는 로봇의 팔 동작 제어 방법.And controlling the joints of the robot by using the calculated values of the joints. 제 4항에 있어서, 상기 획득 단계는The method of claim 4, wherein the obtaining step 인간의 팔 동작을 캡쳐링한 궤적을 획득하는 단계와;Obtaining a trajectory for capturing a human arm motion; 상기 궤적을 통하여 상기 인간 어깨로부터의 손목 위치 및 상기 손바닥의 법선 방향과 지면이 이루는 각도를 획득하는 단계를 포함하는 것을 특징으로 하는 로봇의 팔 동작 제어 방법.And obtaining an angle between the wrist position from the human shoulder and the normal direction of the palm and the ground through the trajectory. 삭제delete 제 4항에 있어서, 상기 로봇의 각 관절 값을 산출하는 단계는The method of claim 4, wherein calculating each joint value of the robot 상기 로봇의 어깨 관절을 위한 적어도 3 이상의 각도와;At least three angles for the shoulder joint of the robot; 상기 로봇의 팔꿈치 관절을 위한 적어도 2 이상의 각도를 산출하는 것을 특징으로 하는 로봇의 팔동작 제어 방법.And calculating at least two or more angles for the elbow joint of the robot. 인간의 팔 동작 재현을 위해 인간 어깨로부터의 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 저장하는 저장장치와;A storage device for storing the position of the wrist from the human shoulder and the angle between the normal direction of the palm and the ground to reproduce human arm motion; 상기 저장장치 내의 상기 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 이용하여, 팔꿈치 들림각을 산출하고, 그리고 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출한 후, 상기 로봇의 관절 제어 신호를 출력하는 프로세서를 포함하는 것을 특징으로 하는 로봇 내장형 제어 장치.The elbow lift angle is calculated using the wrist position in the storage device and the angle formed by the normal direction of the palm and the ground, and the position of the wrist, the angle formed by the normal direction of the palm and the ground, and the elbow lift angle are calculated. And a processor configured to output the joint control signal of the robot after calculating each joint value of the robot using the robot. 인간의 팔 동작 재현을 위해 인간 어깨로부터의 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 저장하는 저장장치와;A storage device for storing the position of the wrist from the human shoulder and the angle between the normal direction of the palm and the ground to reproduce human arm motion; 상기 저장장치 내의 상기 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 이용하여, 팔꿈치 들림각을 산출하고, 그리고 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출한 후, 상기 로봇의 관절 제어 신호를 출력하는 프로세서를 포함하는 것을 특징으로 하는 로봇.The elbow lift angle is calculated using the wrist position in the storage device and the angle formed by the normal direction of the palm and the ground, and the position of the wrist, the angle formed by the normal direction of the palm and the ground, and the elbow lift angle are calculated. And calculating a joint value of the robot using the processor, and outputting a joint control signal of the robot. 인간의 팔 동작을 캡쳐링한 궤적을 저장하는 저장장치와;A storage device for storing a trajectory for capturing a human arm motion; 상기 저장장치 내의 상기 궤적을 통해 인간 어깨로부터의 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 획득하고, 상기 획득된 손목 위치 및 손바닥의 법선 방향과 지면이 이루는 각도를 이용하여, 팔꿈치 들림각을 산출하고, 그리고 상기 손목의 위치, 상기 손바닥의 법선 방향과 지면이 이루는 각도, 및 팔꿈치 들림각을 이용하여 로봇의 각 관절 값을 산출한 후, 상기 로봇의 관절 제어 신호를 출력하는 프로세서와;The angle between the wrist position from the human shoulder and the normal direction of the palm and the ground is obtained through the trajectory within the storage device, and the elbow lift angle is obtained by using the obtained wrist position and the angle between the normal direction of the palm and the ground. And calculating each joint value of the robot using the position of the wrist, the angle formed by the normal direction of the palm and the ground, and the elbow lift angle, and then outputting a joint control signal of the robot; 상기 로봇의 관절 제어 신호를 출력하는 네트워크 인터페이스를 포함하는 것을 특징으로 하는 로봇 외부 제어 장치.And a network interface for outputting a joint control signal of the robot.
KR1020060118606A 2006-11-28 2006-11-28 Method for controlling arm movement of robot and robot thereof KR100813693B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060118606A KR100813693B1 (en) 2006-11-28 2006-11-28 Method for controlling arm movement of robot and robot thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060118606A KR100813693B1 (en) 2006-11-28 2006-11-28 Method for controlling arm movement of robot and robot thereof

Publications (1)

Publication Number Publication Date
KR100813693B1 true KR100813693B1 (en) 2008-03-14

Family

ID=39398828

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060118606A KR100813693B1 (en) 2006-11-28 2006-11-28 Method for controlling arm movement of robot and robot thereof

Country Status (1)

Country Link
KR (1) KR100813693B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006088276A (en) * 2004-09-24 2006-04-06 Advanced Telecommunication Research Institute International Motion generation system
US7070571B2 (en) 1997-04-21 2006-07-04 Immersion Corporation Goniometer-based body-tracking device
JP2006192548A (en) 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research Body imitation robot system and body imitation motion control method
JP2006198709A (en) 2005-01-19 2006-08-03 Toyota Motor Corp Creation device and method for teaching motion data to articulated robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7070571B2 (en) 1997-04-21 2006-07-04 Immersion Corporation Goniometer-based body-tracking device
JP2006088276A (en) * 2004-09-24 2006-04-06 Advanced Telecommunication Research Institute International Motion generation system
JP2006192548A (en) 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research Body imitation robot system and body imitation motion control method
JP2006198709A (en) 2005-01-19 2006-08-03 Toyota Motor Corp Creation device and method for teaching motion data to articulated robot

Similar Documents

Publication Publication Date Title
Singh et al. Modeling of continuum manipulators using pythagorean hodograph curves
Aristidou et al. Inverse kinematics: a review of existing techniques and introduction of a new fast iterative solver
Zhao et al. Robust realtime physics-based motion control for human grasping
Kim et al. Human-like arm motion generation for humanoid robots using motion capture database
Megalingam et al. Robotic arm design, development and control for agriculture applications
Harada et al. Fast grasp planning for hand/arm systems based on convex model
Zheng et al. A 3D dynamic model for continuum robots inspired by an octopus arm
Melingui et al. Qualitative approach for inverse kinematic modeling of a compact bionic handling assistant trunk
Tao et al. Collision-free motion planning of a virtual arm based on the FABRIK algorithm
Kulpa et al. Fast inverse kinematics and kinetics solver for human-like figures
Yang et al. Humanoid motion planning of robotic arm based on human arm action feature and reinforcement learning
Srisuk et al. Forward kinematic-like neural network for solving the 3D reaching inverse kinematics problems
Préault et al. Optimal design and evaluation of a dexterous 4 DoFs haptic device based on delta architecture
Aleotti et al. Position teaching of a robot arm by demonstration with a wearable input device
Li et al. An efficient motion generation method for redundant humanoid robot arm based on the intrinsic principles of human arm motion
Rosado et al. Reproduction of human arm movements using Kinect-based motion capture data
Gielniak et al. Stylized motion generalization through adaptation of velocity profiles
Amouri et al. A new approach to solve inverse kinematics of a planar flexible continuum robot
Zhao et al. Efficient inverse kinematics for redundant manipulators with collision avoidance in dynamic scenes
KR100813693B1 (en) Method for controlling arm movement of robot and robot thereof
Liu et al. Motion imitation and augmentation system for a six degrees of freedom dual-arm robot
Wei A comprehensive approach to the generation of human-like arm movements on robot NAO
Almasri et al. Human-like motion based on a geometrical inverse kinematics and energetic optimization
Li et al. Simulation results for manipulation of unknown objects in hand
Al-Junaid ANN based robotic arm visual servoing nonlinear system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140303

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150217

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160307

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee