KR20110078544A - Motion implementing method of vision system grafted legged mobile robot - Google Patents

Motion implementing method of vision system grafted legged mobile robot Download PDF

Info

Publication number
KR20110078544A
KR20110078544A KR1020090135374A KR20090135374A KR20110078544A KR 20110078544 A KR20110078544 A KR 20110078544A KR 1020090135374 A KR1020090135374 A KR 1020090135374A KR 20090135374 A KR20090135374 A KR 20090135374A KR 20110078544 A KR20110078544 A KR 20110078544A
Authority
KR
South Korea
Prior art keywords
vision
motion
board
robot
character
Prior art date
Application number
KR1020090135374A
Other languages
Korean (ko)
Other versions
KR101266374B1 (en
Inventor
이상순
김태원
박범찬
김솔아
정승민
안정도
권석령
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020090135374A priority Critical patent/KR101266374B1/en
Publication of KR20110078544A publication Critical patent/KR20110078544A/en
Application granted granted Critical
Publication of KR101266374B1 publication Critical patent/KR101266374B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • B25J11/0035Dancing, executing a choreography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • B25J11/004Playing a music instrument
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE: A motion performing method of a vision-system-associated walking robot is provided so that if characters recognized by the camera of a walking robot match those stored in an image processing board, then corresponding commands are output and corresponding motion can be performed. CONSTITUTION: A motion performing method of a vision-system-associated walking robot is as follows. A character recognized by the camera of a walking robot is compared with that stored in an image processing board(S100,S110). If the two characters match, a vision board outputs a corresponding command to a motion board(S120). A program built in the motion board outputs a driving signal for driving each motor(S130). A robot performs corresponding motion with the driving of the motor(S140).

Description

비전시스템 접목형 보행로봇의 모션 수행 방법{MOTION IMPLEMENTING METHOD OF VISION SYSTEM GRAFTED LEGGED MOBILE ROBOT}MOTION IMPLEMENTING METHOD OF VISION SYSTEM GRAFTED LEGGED MOBILE ROBOT}

본 발명은 비전시스템 접목형 보행로봇의 모션 수행 방법에 관한 것으로, 더욱 상세하게는 비전 시스템을 이용하여 보행로봇이 여러 가지 모션을 수행하도록 하는 비전시스템 접목형 보행로봇의 모션 수행 방법에 관한 것이다.The present invention relates to a method for performing a motion of a vision system-type pedestrian robot, and more particularly, to a motion system for performing a vision system-type pedestrian robot using a vision system.

일반적으로 보행로봇은 인간의 관절과 같은 역할을 하는 20개~ 25개의 모터가 서로 연결되어 이동 변위와 속도를 각각 입력하면 인간과 같은 움직임을 구현할 수 있다. 이는 사람은 걸을 때 어떠한 방법에 의거하여 걷지 않지만, 로봇은 적절한 순간 모션 하나하나를 서로 연결한 후 재생시켜 인간과 비슷한 움직임이 가능하게 하는 것이다. 즉, 걸을 때는 한쪽 발을 들면서 반대 방향으로 몸을 기울이는 모션 하나(스텝 1)와 든 발을 앞으로 내딤과 동시에 반대 발을 뻗음으로써 모션 둘(스텝 2)을 생성시킬 수 있고, 역시 처음 들지 않았던 발을 다시 올리면서 대칭 모션 두 개를 만들 수 있다. 여기에서 모션 하나(각 스텝)에 속도를 입력하여 그 스 텝을 실행하는 데 드는 속도를 만들어 움직임의 자연스러움을 나타낼 수 있고, 이렇게 만들어진 총 4개의 모션(스텝 4개)을 하나의 시리즈(series)로 연결하여 재생시키면 로봇의 보행이 만들어진다. 애니메이션을 제작할 때 프레임 하나하나를 연결하여 재생시키는 방법과 동일한데, 다른 한 가지 중요한 것은 속도를 달리 주어 다음 프레임을 실행하는 속도가 다르다는 것이다.In general, a walking robot has 20 to 25 motors, which act as human joints, to be connected to each other to input movement displacement and speed, respectively, to realize human-like movement. This means that humans don't walk by any method when walking, but robots connect each other at the appropriate moments and play them back to enable human-like movement. In other words, when walking, one motion (step 1) that tilts in the opposite direction while lifting one foot and two motions (step 2) can be generated by extending the opposite foot at the same time as the other foot, You can create two symmetrical motions by pushing again. Here, you can input the speed to one motion (each step) to create the speed to execute the step to show the naturalness of the motion. If you play with), the robot walks. When creating an animation, it's the same as connecting each frame and playing it. The other important thing is that the speed of executing the next frame at different speeds is different.

이러한 보행로봇은 말 그대로 걷는 로봇에서 시작하여 다양한 모션의 추가가 요구되지만 이를 해소하기 위해서는 하드웨어와 소프트 웨어가 복잡해진다. 그러나 로봇 산업 발달을 위해 보다 더 자연스럽고 다양한 모션의 추가가 요구되고 있다.These walking robots literally start from walking robots and require the addition of various motions, but the hardware and software become complicated to solve them. However, the development of the robotics industry requires the addition of more natural and diverse motion.

본 발명은 상기 종래의 문제점을 해결하기 위하여 안출된 것으로서, 그 목적은 보행로봇에 설치된 카메라로 문자를 인식한 후 영상처리 보드에 저장된 문자와 비교한 후 일치하면 해당 명령을 출력하여 해당 모션을 수행하므로 지능형 보행로봇을 구현할 수 있게 한 비전시스템 접목형 보행로봇의 모션 수행 방법을 제공함에 있다.The present invention has been made to solve the above problems, the object of which is to recognize the character with a camera installed on the walking robot and compare with the character stored in the image processing board and outputs a corresponding command if the corresponding motion to perform the corresponding motion Therefore, the present invention provides a method of performing a motion of a vision system-integrated pedestrian robot that can realize an intelligent pedestrian robot.

또한, 본 발명의 다른 목적은, 보행로봇의 모션이 연산 수행, 글쓰기, 그림 그리기, 연주, 춤추기 등으로 수행될 수 있어 좀더 자연스럽고 다양한 기능을 추가할 수 있게 한 비전시스템 접목형 보행로봇의 모션 수행 방법을 제공함에 있다.In addition, another object of the present invention, the motion of the walking robot can be performed by performing arithmetic, writing, drawing, playing, dancing, etc. of the vision system grafted walking robot that can add a more natural and various functions The present invention provides a method for performing motion.

상술한 목적을 달성하기 위하여 본 발명은, 보행로봇에 설치한 카메라를 통해 인식된 문자를 영상용 비전 보드에 저장된 문자와 비교하는 제1 단계; 비교한 두 개의 문자가 같으면 상기 비전 보드가 모션용 보드에 그에 해당하는 명령을 출력하는 제2 단계; 상기 모션용 보드에 내장된 프로그램이 각각의 모터를 구동시키기 위해 구동신호를 출력하는 제3 단계; 및 상기 모터의 구동에 의해 보행로봇이 해당 모션을 수행하는 제4 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention includes a first step of comparing the character recognized by the camera installed in the walking robot with the character stored in the vision board for imaging; A second step of outputting a command corresponding to the vision board by the vision board if the two letters compared are the same; A third step of outputting a driving signal for driving each motor by a program embedded in the motion board; And a fourth step in which the walking robot performs a corresponding motion by driving the motor.

또한, 본 발명에서의 상기 제2 단계는 제시된 숫자와 연산기호를 비전을 통해 인식하고 직접 연산하는 것을 특징으로 한다.In addition, the second step of the present invention is characterized by recognizing the presented number and the operation symbol through the vision and direct operation.

또한, 본 발명에서의 상기 제2 단계는 제시된 문자를 비전을 통해 인식하고 직접 글을 쓰는 것을 특징으로 한다.In addition, the second step of the present invention is characterized by recognizing the characters presented through the vision and writing directly.

또한, 본 발명에서의 상기 제2 단계는 제시된 그림을 비전을 이용하여 자체 인식하고 직접 그림을 그리는 것을 특징으로 한다.In addition, the second step in the present invention is characterized in that the self-recognized and directly draw the picture presented using the vision.

또한, 본 발명에서의 상기 제2 단계는 제시된 악보를 비전을 이용하여 인식하고 직접 악기를 연주하되, 미리 음계를 인식시킨 상태에서 해당 음을 내는 것을 특징으로 한다.In addition, the second step in the present invention is characterized by recognizing the presented sheet music using a vision and playing the instrument directly, while producing a corresponding sound in the state of recognizing the scale in advance.

또한, 본 발명에서의 상기 제2 단계는 제시된 노래 제목이나 가수 이름이 기재된 문자를 비전을 이용하여 인식하되, 미리 댄스 동작을 인식시킨 상태에서 해당 댄스 동작을 수행하는 것을 특징으로 한다.In addition, the second step of the present invention is characterized in that the character of the song title or singer name is presented using a vision, the dance operation is performed in a state in which the dance operation is recognized in advance.

또한, 본 발명에서의 상기 비전을 이용한 문자 인식은, 입력 영상인 문자열 을 수평으로 변환하는 단계; 카메라부터 입력된 문자열을 미리 설정된 문자열의 크기와 같게 되도록 영상의 크기를 확대 또는 축소하는 단계; 및 상기 입력 영상과 비전 보드에 저장된 영상 데이터 베이스와 비교하여 템플레이트 매칭에 의해 문자를 인식하는 단계;를 포함하는 것을 특징으로 한다.In addition, the character recognition using the vision in the present invention, the step of horizontally converting the character string that is the input image; Enlarging or reducing the size of an image such that a character string input from the camera is equal to a size of a preset character string; And recognizing a character by template matching by comparing the input image with an image database stored in the vision board.

이와 같은 본 발명의 비전시스템 접목형 보행로봇의 모션 수행 방법은, 보행 로봇에 설치된 카메라로 문자를 인식한 후 영상처리 보드에 저장된 문자와 비교한 후 일치하면 해당 명령을 출력하여 해당 모션을 수행하므로지능형 로봇을 구현할 수 있고, 보행로봇의 모션이 연산 수행, 글쓰기, 그림 그리기, 연주, 춤추기 등으로 수행될 수 있어 좀더 자연스럽고 다양한 기능을 추가할 수 있는 효과가 있다.Such a motion performance method of the vision system grafted walking robot of the present invention, after recognition of the character with a camera installed in the walking robot, compared with the character stored in the image processing board and outputs a corresponding command if the match is performed to perform the motion An intelligent robot can be implemented, and the motion of the walking robot can be performed by performing calculations, writing, drawing, playing, dancing, etc., thereby adding more natural and various functions.

이하, 본 발명의 비전시스템 접목형 보행로봇의 모션 수행 방법을 첨부도면을 참조하여 일 실시 예를 들어 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, a method for performing a motion of the vision system grafted walking robot of the present invention will be described with reference to the accompanying drawings.

본 발명의 바람직한 일 실시 예에 따른 비전시스템 접목형 보행로봇의 모션 수행 방법은 도 1에 도시된 바와 같이 문자 인식단계(S100), 문자 비교단계(S110), 명령 출력단계(S120), 구동신호 출력단계(S130) 및 모션 수행단계(S140)를 포함한다.According to an exemplary embodiment of the present invention, a motion performing method of the vision system-type pedestrian robot may include a character recognition step (S100), a character comparison step (S110), a command output step (S120), and a driving signal. An output step S130 and a motion performing step S140 are included.

상기 문자 인식단계(S100)는 보행로봇에 설치한 카메라(CCD camera)를 통해 문자를 인식하는 단계이다. 이때, 비전을 이용한 문자 인식은, 도 2에 도시된 바와 같이 문자열을 수평으로 변환하는 단계(S102), 확대/축소(resizing) 단계(S104) 및 템플레이트 매칭에 의한 문자 인식 단계(S106)를 포함한다.The character recognition step (S100) is a step of recognizing a character through a camera (CCD camera) installed in the walking robot. At this time, the character recognition using the vision, as shown in FIG. 2 includes the step of horizontally converting the character string (S102), the zooming (resizing) step (S104) and the character recognition step by template matching (S106) do.

특히, 숫자를 포함한 문자 인식시 비슷한 숫자의 인식 오류는 숫자의 폰트를 바꾸고, 상관계수를 미세 조정하여 각 숫자 간의 인식 차이를 두어 정확한 숫자 인식이 가능하고, 조도의 차이에 따른 문자 인식 오류는 이진화 기법의 계수를 조정하고, 가장 인식이 잘 될 때의 조도를 찾아내어 원래의 글자 모양을 그대로 인식할 수 있도록 한다.In particular, similar character recognition errors when recognizing characters including numbers change the font of the numbers and finely adjust the correlation coefficient so that the recognition difference between each number can be accurately recognized, and the character recognition error due to the difference in illumination is binarized. Adjust the coefficients of the technique and find the illuminance at the time when the recognition is best, so that the original letter shape is recognized as it is.

상기 문자열을 수평으로 변환하는 단계(S102)는 카메라로부터 입력받은 영상의 문자열 영상을 회전시키면서 문자열의 높이를 계산하는데, 이때, 문자열 높이가 최소가 될 때 문자열은 수평이 된다. 문자열의 높이를 계산하는 방법은 라인 히스토그램을 구하여 라인 히스토그램이 임계값(threshold)보다 큰 영역을 검출하는 방법으로 높이를 구한다.In the step of converting the character string horizontally (S102), the height of the character string is calculated while rotating the character image of the image received from the camera. In this case, the character string becomes horizontal when the height of the character string is minimum. The method of calculating the height of a character string is obtained by obtaining a line histogram and detecting a region in which the line histogram is larger than a threshold.

상기 확대/축소 단계(S104)는 상기 카메라로부터 입력된 문자열의 크기(가로×세로)가 비전으로 임베디드 보드에 저장되어 있는 문자열의 크기와 같게 되도록 입력받은 영상의 크기를 일정한 비율로 확대/축소한다.The enlargement / reduction step (S104) enlarges / reduces the size of the input image at a constant ratio such that the size (width × length) of the character string input from the camera is equal to the size of the character string stored in the embedded board as a vision. .

상기 템플레이트 매칭에 의한 문자 인식 단계(S106)는 상기 카메라로부터 입력된 영상과 비전용 임베디드 보드에 저장된 영상 데이터 베이스와 비교하여 카메라로부터 입력된 영상(문자)을 인식하게 된다. 이때, 인식된 결과를 토대로 보행로 봇은 동작(연산 수행, 글쓰기, 그림 그리기, 연주 및 춤추기 등)을 하게 된다.In the character recognition step S106 of the template matching, an image (character) input from the camera is recognized by comparing the image input from the camera with an image database stored in the non-dedicated embedded board. At this time, the walking bots perform operations (compute, write, draw, play and dance) based on the recognized results.

상기 문자 비교단계(S110)는 도 1에 도시된 바와 같이 인식된 문자를 영상용 비전 보드에 저장된 문자와 프로그램에 의해 비교하는 단계이다.The character comparing step S110 is a step of comparing the recognized character as shown in FIG. 1 with a character stored in an image vision board by a program.

상기 명령 출력단계(S120)는 인식된 문자와 영상용 비전 보드에 저장된 문자를 비교한 후, 비교한 두 개의 문자가 같으면 상기 비전 보드가 모션용 보드에 그에 해당하는 명령을 출력하는 단계이다. 이때, 상기 비전 보드는 임베디드(Embeded) 보드를 사용한다. ( 도 3 참조 )The command output step (S120) is a step of comparing a recognized character with a character stored in the vision board for an image, and if the two characters are the same, the vision board outputs a command corresponding to the motion board. In this case, the vision board uses an embedded board. (See FIG. 3)

상기 구동신호 출력단계(S130)는 상기 모션용 보드에 내장된 프로그램이 각각의 상기 보행로봇의 이동 부위마다 설치된 모터를 구동시키기 위해 구동신호를 출력하는 단계이다.The driving signal output step (S130) is a step in which a program embedded in the motion board outputs a driving signal to drive a motor installed for each moving part of the walking robot.

상기 모션 수행단계(S140)는 상기 모터의 구동에 의해 보행로봇이 해당 모션을 수행하는 단계로, 각 모터의 적절한 변위 비율과 속도를 찾아 효율적이고 부드러운 움직임을 구현하는 것이 바람직하다.The motion performing step (S140) is a step in which the walking robot performs the corresponding motion by driving the motor, and it is desirable to implement an efficient and smooth movement by finding an appropriate displacement ratio and speed of each motor.

한편, 상기 단계(S100~S130)를 거쳐 상기 보행로봇이 수행하는 모션은 연산 수행, 글 쓰기, 그림 그리기, 연주 및 춤 추기 등이다.On the other hand, the motion performed by the walking robot through the step (S100 ~ S130) is performing arithmetic, writing, drawing, playing and dancing.

즉, 상기 보행로봇이 수행하는 모션 중 연산 수행은 도 4a에 도시된 바와 같이 상기 카메라로부터 입력된 제시 숫자와 연산기호를 상기 비전 보드를 통해 인식하고 프로그램에 의해 직접 연산한 후 보행로봇 손에 고정된 펜으로 표시하게 된다.That is, the calculation of the motion performed by the walking robot recognizes the presentation number and the operation code input from the camera as shown in FIG. 4A through the vision board and directly calculates the result by the program, and then fixes it on the walking robot hand. Will be marked with a pen.

그리고 글 쓰기는 도 4b에 도시된 바와 같이 상기 카메라로부터 입력된 제시 문자를 상기 비전 보드를 통해 인식하고 프로그램에 의해 보행로봇 손에 고정된 펜으로 글을 쓰게 하는 것으로, 제어부의 중앙 처리 장치(CPU)에서 각각의 자음과 모음을 인식하여 해당하는 글을 쓸 수 있도록 명령하고 동작을 구현하게 한다.And writing is to recognize the presentation characters input from the camera through the vision board as shown in Figure 4b and to write with a pen fixed to the walking robot hand by a program, the central processing unit (CPU of the control unit) ) Recognizes each consonant and vowel and commands them to write the corresponding article and implements the action.

그리고 그림 그리기는 도 4c에 도시된 바와 같이 상기 카메라로부터 입력된 제시 그림을 상기 비전 보드를 통해 자체 인식하고 보행로봇 손에 고정된 펜으로 직접 그림을 그리는 것이며, 위 글 쓰기와는 다르게 이미 내장된 프로그램에 의한 처리 과정이 아닌 그림 자체를 인식한 후 바로 동작을 구현하게 한다.And the drawing is a self-recognized presentation picture input from the camera as shown in Figure 4c through the vision board to draw a picture directly with a pen fixed to the walking robot hand, unlike the above writing already built It recognizes the picture itself, not the program process, and implements the action immediately.

그리고 악기 연주는 도 4d에 도시된 바와 같이 상기 카메라로부터 입력된 제시 악보를 상기 비전 보드를 통해 인식하고 보행로봇 손에 막대를 고정시킨 후 직접 악기를 연주하되, 위 글 쓰기와 비슷한 방법으로 상기 제어부의 CPU에서 음계를 인식하여 해당하는 음을 낼 수 있도록 명령하고 동작을 구현하게 한다.And as shown in Figure 4d, the musical instrument input from the camera through the vision board to recognize the presented score, and fixed the bar to the walking robot hand to play the instrument directly, the control in a similar manner to the writing above The CPU recognizes the scale and makes the corresponding sound.

그리고 춤 추기는 도 4e에 도시된 바와 같이 상기 카메라로부터 입력된 제시 노래 제목이나 가수 이름이 기재된 문자를 상기 비전 보드를 통해 인식하되, 미리 댄스 동작을 인식시킨 상태에서 해당 댄스 동작을 구현하게 한다.In addition, as shown in FIG. 4E, the dancing recognizes the written song title or the name of the singer name input from the camera through the vision board, but implements the dance operation in a state in which the dance movement is recognized in advance.

이때, 춤 추기는 노래 제목이나 가수 이름 등이 인식되면 그 문자에 해당하는 모션 즉, 해당 곡에 따른 동일한 안무가 프로그램화되어 있어 프로그램에 따라 보행로봇이 춤을 추는 것이다.At this time, when the song title or the singer's name is recognized, the dancing is a walking robot that dances according to the program because the motion corresponding to the character, that is, the same choreography according to the song is programmed.

예컨대, 상기 보행로봇의 모션을 위한 프로그램 설정시 결정 사항은 도 5에 도시된 바와 같이 다음과 같다. For example, the decision items when setting a program for the motion of the walking robot are as follows.

① 서보모터 번호: 채택 프로그램은 16진수를 사용하고 있는데, 모터 또한 0 번을 첫 번째 모터로 하여 18번까지 총 25개의 모터를 한꺼번에 제어를 할 수 있다.① Servo motor number: Adopted program uses hexadecimal number. Motor can control 25 motors at the same time up to 18 with 0 as the first motor.

② 모션 데이터: 16진수 0000~03ff 의 범위 안에 모터의 회전 위치를 제어할 수 있다. 스텝은 0부터 6까지 총 7개가 한 페이지를 이루어 한 화면에서 동시에 제어할 수 있다.② Motion data: The rotation position of the motor can be controlled within the range of hexadecimal 0000 to 03ff. 7 steps from 0 to 6 can be controlled simultaneously on one screen.

③ 페이지(page) 설정 창: 현재 페이지 번호를 알 수 있으며 페이지는 16진수 0부터 7f 까지 있습니다. 주요 사용 메뉴는 Toque, PlayCount, PageStep, NextPage, ExitPage가 있는데, 이는 몇 퍼센트의 토크를 줄 것이며, 현재 페이지의 스텝들은 몇 번이 실행되고 몇 개의 스텝이 사용할 것인지 정할 수 있다. 그리고 Nextpage와 ExitPage를 이용해 현재 페이지를 실행하고 어느 페이지로 이동할 것인가, 아니면 어느 페이지에서 마칠 것인가를 입력할 수 있다.③ Page setup window: You can see the current page number and pages are from 0 to 7f in hexadecimal. The main usage menus are Toque, PlayCount, PageStep, NextPage, and ExitPage, which will give you a percentage of torque, and you can decide how many steps are used and how many steps are used in the current page. You can then use Nextpage and ExitPage to enter the current page and go to or from which page.

④ 메시지 출력창: 현재 페이지의 명령어 후 응답을 나타내어 오류 등을 검출하거나 사용자가 현재 상태를 알 수 있다.④ Message output window: Displays the response after the command of the current page to detect an error or the user to know the current status.

⑤ 명령어 입력창: 프로그램을 사용하기 위해 사용자는 명령어를 입력할 수 있다.⑤ Command Input Window: To use the program, the user can enter a command.

⑥ 통신설정 창: 포트 번호와 통신 속도를 입력하면 컴퓨터와 보행로봇의 보드(Board)를 연결시켜 준다.⑥ Communication setting window: Enter the port number and the communication speed to connect the computer and the board of the walking robot.

⑦ 모드선택버튼: 이 모션 에디트를 이용해 보행로봇을 컴퓨터로 제어하거나 리모컨으로 제어를 할 수 있다. 이 제어를 위해 구별해주는 버튼이고 사용자가 입력한 값들의 총 페이지와 스텝들을 저장하고 관리하도록 도와준다.⑦ Mode selection button: This motion edit can be used to control the walking robot with a computer or remote control. It is a distinguishing button for this control and helps to save and manage the total pages and steps of user input values.

더욱이, 모션 에디트(Motion Edit)를 이용한 보행로봇의 댄스 모션 만들기를 일 예로 설명하면 다음과 같다.Furthermore, a dance motion of a walking robot using motion edit is described as an example.

① 물구나무서서 춤춘 후 제자리 복귀: 바닥에 손 짚기 → 다리 올리기 → 힘 비축하기 → 재빨리 팔과 허리 튕기기 → 원위치 순서이다.① Dance after standing in the water, return to place: put your hands on the floor → raise your legs → store your strength → quickly bounce your arms and back → return to your home position.

여기서, 바닥에 손 짚기는 도 6a에 도시된 바와 같이 물구나무 서기 위한 준비 동작으로 순간적인 다리와 손의 반동을 이용하여 다리를 올리기 위한 힘을 원심력을 이용해 만든다.Here, the hand on the floor is made by using the centrifugal force to raise the leg by using the momentary leg and the reaction of the hand as a preparation operation for standing up as shown in Figure 6a.

그리고 다리 올리기는 도 6b에 도시된 바와 같이 원심력을 이용해 순간 힘을 발휘하여 다리를 바닥과 수직으로 높이 들고 손과 다리의 모터를 이용해 몸을 박자에 맞게 튕겨준다.And lift the leg as shown in Figure 6b exerts a momentary force by using centrifugal force to raise the leg perpendicular to the floor and bounce the body to the beat using the motor of the hand and leg.

그리고 힘 비축하기는 도 6c에 도시된 바와 같이 제자리로 원위치하기 위한 준비 동작으로 서서히 몸을 땅과 가까이하여 회전하기 위한 힘을 비축해 둔다. And to store the force is a preparatory action to return to its original position as shown in Figure 6c to slowly store the force for rotating the body close to the ground.

그리고 재빨리 팔과 허리 튕기기는 도 6d에 도시된 바와 같이 비축한 힘과 순간 빠른 속도로 팔과 다리(허리)를 뻗음으로써 발생하는 원심력으로 땅에 발을 맞닿게 하고 중심을 잡는다.Quickly arm and back bounces and centers the foot in contact with the ground with the reserve force and centrifugal force generated by stretching the arms and legs (waist) at a rapid rate as shown in FIG. 6D.

이상에서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 본 발명의 보호범위는 상기 실시 예에 한정되는 것이 아니며, 해당 기술분야의 통상의 지식을 갖는 자라면 본 발명의 사상 및 기술영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있 음을 이해할 수 있을 것이다.In the detailed description of the present invention described above with reference to the preferred embodiment of the present invention, the scope of protection of the present invention is not limited to the above embodiment, and those skilled in the art of the present invention It will be understood that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention.

도 1은 본 발명에 의한 비전시스템 접목형 보행로봇의 모션 수행 방법을 도시한 블럭도이다.1 is a block diagram illustrating a method of performing a motion of a vision system-grafted walking robot according to the present invention.

도 2는 상기 비전시스템 접목형 보행로봇의 모션 수행 방법에서 비전을 이용한 문자 인식 순서를 나타낸 블럭도이다.2 is a block diagram showing a character recognition sequence using vision in the method for performing a motion of the vision system-grafted walking robot.

도 3은 상기 비전시스템 접목형 보행로봇의 모션 수행 방법에 적용되는 임베디드 보드를 나타낸 사진이다.Figure 3 is a photograph showing an embedded board applied to the motion performance method of the vision system grafted walking robot.

도 4a 내지 도 4e는 상기 비전시스템 접목형 보행로봇의 모션 수행 방법에 의한 보행로봇의 수행 모션을 나타낸 사진이다.4A to 4E are photographs showing the motion of the walking robot according to the motion performing method of the vision system-grafted walking robot.

도 5는 상기 비전시스템 접목형 보행로봇의 모션 수행 방법에 의한 프로그램을 설명하는 사진이다.5 is a photograph illustrating a program by a motion performing method of the vision system grafted walking robot.

도 6a 내지 도 6d는 상기 비전시스템 접목형 보행로봇의 모션 수행 방법에 의한 댄스 모션 만들기를 나타낸 보행로봇의 동작 사진이다.6a to 6d is a motion picture of a walking robot showing a dance motion by the motion performing method of the vision system grafted walking robot.

Claims (7)

보행로봇에 설치한 카메라를 통해 인식된 문자를 영상용 비전 보드에 저장된 문자와 비교하는 제1 단계;A first step of comparing a character recognized by a camera installed in the walking robot with a character stored in an image vision board; 비교한 두 개의 문자가 같으면 상기 비전 보드가 모션용 보드에 그에 해당하는 명령을 출력하는 제2 단계;A second step of outputting a command corresponding to the vision board by the vision board if the two letters compared are the same; 상기 모션용 보드에 내장된 프로그램이 각각의 모터를 구동시키기 위해 구동신호를 출력하는 제3 단계; 및 A third step of outputting a driving signal for driving each motor by a program embedded in the motion board; And 상기 모터의 구동에 의해 로봇이 해당 모션을 수행하는 제4 단계;를 포함하는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.And a fourth step in which the robot performs the corresponding motion by driving the motor. 제 1항에 있어서,The method of claim 1, 상기 제2 단계는 제시된 숫자와 연산기호를 비전을 통해 인식하고 직접 연산하는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.The second step is to perform the motion of the vision system-type pedestrian robot, characterized in that to recognize the presented number and the operation symbol through the vision and directly calculate. 제 1항에 있어서,The method of claim 1, 상기 제2 단계는 제시된 문자를 비전을 통해 인식하고 직접 글을 쓰는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.The second step is to perform the motion of the vision system-type pedestrian robot, characterized in that the recognition of the presented characters through the vision and write directly. 제 1항에 있어서,The method of claim 1, 상기 제2 단계는 제시된 그림을 비전을 이용하여 자체 인식하고 직접 그림을 그리는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.The second step is to perform the motion of the vision system-type pedestrian robot, characterized in that the self-recognition of the presented picture using the vision and draw the picture directly. 제 1항에 있어서,The method of claim 1, 상기 제2 단계는 제시된 악보를 비전을 이용하여 인식하고 직접 악기를 연주하되, 미리 음계를 인식시킨 상태에서 해당 음을 내는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.The second step is to perform the motion of the vision system-type pedestrian robot, characterized in that by using the vision to recognize the presented sheet music and play the instrument directly, the corresponding sound in the state in advance to recognize the scale. 제 1항에 있어서,The method of claim 1, 상기 제2 단계는 제시된 노래 제목이나 가수 이름이 기재된 문자를 비전을 이용하여 인식하되, 미리 댄스 동작을 인식시킨 상태에서 해당 댄스 동작을 수행하는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.The second step is to recognize the character of the song title or singer name presented using a vision, the motion performance method of the vision system grafted walking robot, characterized in that performing the dance operation in a state in which the dance movement is recognized in advance . 제 3항 또는 제 6항 중 어느 한 항에 있어서,The method according to any one of claims 3 to 6, 상기 비전을 이용한 문자 인식은,Character recognition using the vision, 입력 영상인 문자열을 수평으로 변환하는 단계;Horizontally converting a character string that is an input image; 카메라부터 입력된 문자열을 미리 설정된 문자열의 크기와 같게 되도록 영상의 크기를 확대 또는 축소하는 단계; 및Enlarging or reducing the size of an image such that a character string input from the camera is equal to a size of a preset character string; And 상기 입력 영상과 비전 보드에 저장된 영상 데이터 베이스와 비교하여 템플레이트 매칭에 의해 문자를 인식하는 단계;를 포함하는 것을 특징으로 하는 비전시스템 접목형 보행로봇의 모션 수행 방법.Recognizing characters by template matching comparing the input image and the image database stored in the vision board;
KR1020090135374A 2009-12-31 2009-12-31 Motion implementing method of vision system grafted legged mobile robot KR101266374B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090135374A KR101266374B1 (en) 2009-12-31 2009-12-31 Motion implementing method of vision system grafted legged mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090135374A KR101266374B1 (en) 2009-12-31 2009-12-31 Motion implementing method of vision system grafted legged mobile robot

Publications (2)

Publication Number Publication Date
KR20110078544A true KR20110078544A (en) 2011-07-07
KR101266374B1 KR101266374B1 (en) 2013-05-22

Family

ID=44918000

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090135374A KR101266374B1 (en) 2009-12-31 2009-12-31 Motion implementing method of vision system grafted legged mobile robot

Country Status (1)

Country Link
KR (1) KR101266374B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106584479A (en) * 2016-12-30 2017-04-26 中国地质大学(武汉) Dulcimer robot double-arm-coordination and crossing-prevention playing method based on real-time information flow

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240054728A (en) 2022-10-19 2024-04-26 국방과학연구소 Method and apparatus for controling robot arm using of hierachical reinforcement learning model, method and apparatus for providing hierachical reinforcement learning for robot arm control

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3860409B2 (en) * 2000-11-27 2006-12-20 日本電信電話株式会社 Pet robot apparatus and pet robot apparatus program recording medium
JP2005074562A (en) * 2003-08-29 2005-03-24 Sony Corp Robotic device, controlling method of the robotic device, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106584479A (en) * 2016-12-30 2017-04-26 中国地质大学(武汉) Dulcimer robot double-arm-coordination and crossing-prevention playing method based on real-time information flow

Also Published As

Publication number Publication date
KR101266374B1 (en) 2013-05-22

Similar Documents

Publication Publication Date Title
US6908386B2 (en) Game device changing sound and an image in accordance with a tilt operation
CN107080940A (en) Body feeling interaction conversion method and device based on depth camera Kinect
CN108475113B (en) Method, system, and medium for detecting hand gestures of a user
Lockwood et al. Fingerwalking: motion editing with contact-based hand performance
JP2001084411A (en) Character control system on screen
JP5252393B2 (en) Motion learning device
KR101266374B1 (en) Motion implementing method of vision system grafted legged mobile robot
WO2016208325A1 (en) Motion display program
JP2002337079A (en) Device/method for processing information, recording medium and program
JP2011059862A (en) Non-grounded inner force sense presentation device
JP2009026125A (en) Emotion analysis device, emotion analysis method, and program
JP5458245B2 (en) Operation control apparatus, method thereof, and program
JP2008186325A (en) Program, information storage medium, and game device
JP5178462B2 (en) Image creation apparatus and image creation program
CN101952879A (en) Methods and apparatus for designing animatronics units from articulated computer generated characters
CN115904077A (en) Data glove interface implementation method, device and equipment for electric power interactive courseware
US20150362995A1 (en) Tactile force presentation device, information terminal, tactile force presentation method, and computer-readable recording medium
Jiang et al. A brief analysis of gesture recognition in VR
CN110370280B (en) Feedback control method, system and computer readable storage medium for robot behavior
Zhang et al. PoseVEC: Authoring Adaptive Pose-aware Effects using Visual Programming and Demonstrations
Tang et al. CUBOD: a customized body gesture design tool for end users
CN117251058B (en) Control method of multi-information somatosensory interaction system
JP2001134362A (en) Doll type interface virtual space walking through system
WO2023100246A1 (en) Technique recognition program, technique recognition method, and information processing device
JP4453076B2 (en) Humanoid robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee