WO2014046404A2 - 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법 - Google Patents

근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법 Download PDF

Info

Publication number
WO2014046404A2
WO2014046404A2 PCT/KR2013/008019 KR2013008019W WO2014046404A2 WO 2014046404 A2 WO2014046404 A2 WO 2014046404A2 KR 2013008019 W KR2013008019 W KR 2013008019W WO 2014046404 A2 WO2014046404 A2 WO 2014046404A2
Authority
WO
WIPO (PCT)
Prior art keywords
robot
emg
control operation
control
sensor
Prior art date
Application number
PCT/KR2013/008019
Other languages
English (en)
French (fr)
Other versions
WO2014046404A3 (ko
Inventor
신현출
이기원
유경진
Original Assignee
숭실대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교 산학협력단 filed Critical 숭실대학교 산학협력단
Publication of WO2014046404A2 publication Critical patent/WO2014046404A2/ko
Publication of WO2014046404A3 publication Critical patent/WO2014046404A3/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1107Measuring contraction of parts of the body, e.g. organ, muscle
    • A61B5/1108Measuring contraction of parts of the body, e.g. organ, muscle of excised organs, e.g. muscle preparations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]

Definitions

  • the present invention relates to a robot motion control apparatus and method using an EMG sensor and an acceleration sensor, and more particularly, a user can remotely control the driving of a robot by using signals of an EMG sensor and an acceleration sensor attached to a human body.
  • the present invention relates to a robot motion control apparatus and method using an EMG sensor and an acceleration sensor.
  • intelligent robots are robots that recognize the external environment and judge themselves and operate autonomously or interact with humans. Recently, intelligent robots are approaching the space of human life and are expected to occupy a great part of future industry. Accordingly, the research of intelligent robots is focused on the interaction between humans and robots and the improvement of robot intelligence, and researches on various aspects such as household assistance, medical care, and helper are being studied.
  • Conventional robot control method is to control the robot's movement according to user's command through the method of controlling the robot using a dedicated device such as joystick, joy pad, mouse keyboard, voice recognition through microphone or image recognition through camera. Method and the like.
  • a dedicated device such as joystick, joy pad, mouse keyboard, voice recognition through microphone or image recognition through camera.
  • Korean Patent Registration No. 1159475 by the present applicant discloses a configuration in which a user can remotely control the movement of a robot by using an EMG sensor and an acceleration sensor mounted on a human body. This determines whether the robot is controlled by using the signal of the EMG sensor and controls the movement of the robot according to the motion of the robot inferred through the signal of the acceleration sensor.
  • the method of comparing the EMG sensor signal and the threshold value is used when determining whether to control the robot.
  • the muscle strength varies depending on the user's age, gender, and health level, so that the deviation of the EMG signal measured for each user is large. On the side. Accordingly, there is a disadvantage in that the determination of the threshold size to be used is difficult and the generality for all users is poor.
  • the present invention provides a method comprising: comparing an entropy value of an EMG signal obtained from an EMG sensor mounted on a human body with a previously stored threshold value, and determining an execution of control of the robot when an entropy value of the EMG signal is greater than or equal to the threshold value; Comparing the signals obtained from the acceleration sensor mounted on the human body with reference models of pre-stored acceleration sensor signals to infer a control operation of the robot, and to drive the robot to correspond to the inferred control operation of the robot. It provides a robot drive control method comprising the step of controlling.
  • the EMG sensor is a plurality, and the step of comparing the entropy value of the EMG signal with a pre-stored threshold value, the value obtained by summing a plurality of entropy values obtained from the plurality of EMG sensors can be compared with the threshold value.
  • the entropy value (H c ) for each EMG sensor may be defined by the following equation.
  • x c is the electromyogram signal obtained from the c-th EMG sensor of the plurality of EMG sensors, P c (m) when the x c and m equal to x c probability, m is the index of the bin, M is the total of the bin Count
  • the robot driving control method may further include generating reference models for each control operation by applying a K-mean clustering algorithm to a plurality of learning acceleration signals.
  • inferring a control operation of the robot may include comparing an acceleration value obtained from the acceleration sensor with an acceleration value of the previously stored reference models, and performing an operation corresponding to a reference model having a minimum Euclidean distance. It can be inferred from the control operation of.
  • control operation of the robot inferring the control operation for the body of the robot to any one of the forward, backward, left turn, right turn, or up and down the control operation of the forearm relative to the elbow of the robot. It can be inferred in the direction of rotation of any one of, left, and right.
  • the human body corresponds to each of the two arm parts
  • the reference model is stored in a plurality of each of the two arm parts
  • the gesture of any one of the two arms is related to the control operation for the body of the robot
  • the gesture of the other arm part may be related to the control operation of the arm of the robot.
  • the present invention is an entropy comparison unit for comparing the entropy value of the EMG signal obtained from the EMG sensor mounted on the human body with a pre-stored threshold value, and if the entropy value of the EMG signal is greater than or equal to the threshold value, the control execution of the robot is determined.
  • a control operation inference unit for inferring the control operation of the robot by comparing the robot control determination unit with a reference model of the acceleration sensor signal stored in the human body and a signal obtained from the acceleration sensor mounted on the human body, and the control of the inferred robot. It provides a robot drive control device including a robot drive control unit for controlling the driving of the robot to correspond to the operation.
  • the robot driving control apparatus may further include a reference model generator for generating reference models for each control operation by applying a K-mean clustering algorithm to a plurality of learning acceleration signals.
  • the robot motion control apparatus and method using the EMG sensor and the acceleration sensor according to the present invention there is an advantage that the user can easily control the driving of the robot by using the signals of the EMG sensor and the acceleration sensor mounted on the human body. .
  • FIG. 1 illustrates an example of mounting an EMG sensor and an acceleration sensor according to an exemplary embodiment of the present invention.
  • FIG 2 shows an example of a robot used in an embodiment of the present invention.
  • FIG. 3 is a block diagram of a robot driving control apparatus using an EMG sensor and an acceleration sensor according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of a robot driving control method using FIG. 3.
  • FIG. 6 illustrates an output distribution of an acceleration sensor for each motion corresponding to a right arm gesture according to an exemplary embodiment of the present invention.
  • FIG. 7 illustrates an output distribution of an acceleration sensor for each motion corresponding to a left arm gesture according to an exemplary embodiment of the present invention.
  • the present invention relates to an apparatus and method for controlling a robot movement using an EMG sensor and an acceleration sensor, wherein an EMG sensor is used to determine whether to execute control of a robot, and an acceleration sensor infers motion control of a robot corresponding to a user's movement. Used to.
  • the EMG sensor and the acceleration sensor are mounted on the human body.
  • the EMG sensor and the acceleration sensor are mounted on the wrist.
  • the sensor module 10 is a Bluetooth-based EMG and acceleration measurement module, which is mounted on the outside of the wrist.
  • the EMG sensor 1 is connected to the sensor module 10.
  • the EMG sensor 1 has a plurality of channels, and in this embodiment, three channels are used.
  • the EMG sensor 1 is mounted on the surface of the wrist part, and more particularly, is mounted on the forearm inner part of the arm adjacent to the wrist. The distance between the dipoles of the EMG sensor 1 is equally arranged for each channel.
  • the sampling frequency of the EMG signal is 64Hz and used to remove power line frequency noise.
  • the acceleration sensor has a form embedded in the sensor module 10 mounted on the wrist portion. In the present exemplary embodiment, the EMG sensor 1 and the acceleration sensor are mounted on the wrist part, but the present invention is not necessarily limited thereto.
  • FIG. 2 shows an example of a robot used in an embodiment of the present invention.
  • This embodiment provides a driving control method for a wheel-based humanoid robot.
  • the humanoid robot has an upper body that mimics a human body function, and the lower body is composed of a wheel-based mobile chassis module.
  • the robot applied to the present invention is not limited to the robot form as shown in FIG.
  • FIG. 3 is a block diagram of a robot driving control apparatus using an EMG sensor and an acceleration sensor according to an embodiment of the present invention.
  • the apparatus 100 includes an entropy comparison unit 110, a robot control determiner 120, a control operation inference unit 130, a robot drive control unit 140, and a reference model generator 150.
  • the entropy comparator 110 compares an entropy value of an EMG signal obtained from an EMG sensor mounted on a human body with a previously stored threshold value.
  • the entropy value of the EMG signal corresponds to the amount of change in the EMG signal.
  • the robot control determination unit 120 determines control execution of the robot. If the robot control determination unit 120 is less than the threshold value, the robot control determination unit 120 waits without executing the control of the robot. This means that the entropy value of the EMG signal input every moment is calculated, and when the calculated power exceeds the threshold value, the control unit proceeds to the next robot control step. Otherwise, the robot control is not performed.
  • the control operation inference unit 130 compares the signals obtained from the acceleration sensor mounted on the human body with reference models of previously stored acceleration sensor signals, and infers the control operation of the robot.
  • the robot driving control unit 140 controls the driving of the robot so as to correspond to the inferred control operation of the robot.
  • the reference model is stored in plural numbers for each of the two arm parts. Therefore, it is possible to control the driving of the robot according to the gesture for each arm part.
  • the gesture of one arm part (ex, left arm) of the two arms is related to the control operation (forward, backward, left turn, right turn operation) with respect to the body of the robot
  • the other arm part (ex, The gesture of the right arm is related to the control operation (up, down, left, right rotational movements of the forearm of the forearm, and fist-holding movement) of the arm of the robot.
  • the reference model generator 150 generates reference models used for the control operation inference for each operation. As before, a plurality of reference models are generated for each of the two arm sites. The generated reference model information is stored in the DB.
  • the reference model generator 150 generates a reference model for each control operation by applying a K-mean clustering algorithm to a plurality of training acceleration signals prepared in advance.
  • the method is as follows. First, information of a plurality of learning acceleration signals is collected from a 3-axis acceleration sensor. At this time, the information of the acceleration signals are collected in various amounts for each gesture corresponding to each robot operation. As the amount of data increases, an optimal center value for the generated reference model may be obtained.
  • the collected acceleration signals are all composed of the x-axis signal V x (t), the y-axis signal V y (t), and the z-axis signal V z (t).
  • arbitrary initial center points T d (0) are set by the number to be clustered (the number of robot motions to be controlled).
  • d is an index for distinguishing each initial center point.
  • the center value T d is updated by using the average value of all V (t) belonging to the cluster S d .
  • an optimal center value corresponding to each cluster can be calculated. That is, in the present embodiment, a reference model corresponding to each operation is generated in the above manner.
  • FIG. 4 is a flowchart of a robot driving control method using FIG. 3.
  • a robot driving control method according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 3 and 4.
  • the reference model generator generates reference models for each control operation by using the K-mean clustering algorithm and stores them in the DB. These reference models are used as important databases for later robot motion inference.
  • the entropy comparison unit 110 compares the entropy value of the EMG signal obtained from the EMG sensor mounted on the human body with a previously stored threshold value (S410).
  • the EMG sensor is composed of a plurality of channels (ex, three).
  • step S410 compares the sum of the entropy values obtained from the plurality of EMG sensors with each other and the threshold value.
  • Equation 1 the entropy value (H c ) for each EMG sensor is defined by Equation 1 below.
  • x c is the electromyogram signal obtained from the c-th EMG sensor of the plurality of EMG sensors, P c (m) when the x c and m equal to x c probability, m is the index of the bin, M is the total of the bin Count
  • the EMG signal of the three channels measured inside the forearm can be expressed as x c [n].
  • x c [n] is a signal generated in the C ⁇ ⁇ 1,2,3 ⁇ th channel, and n is a discrete time index sampled at 64 Hz.
  • P c (m) is represented by Equation 2 below.
  • P c (m) represents a value obtained by dividing the number of samples belonging to I m by the total number of samples.
  • X max represents the largest value of the signal acquisition equipment, that is, the maximum EMG value.
  • step S410 it is determined whether or not the robot performs control using information entropy of the EMG signal.
  • the robot control determiner 120 determines control execution of the robot (S420). For example, if the total sum of entropy for the three-channel EMG signal measured for one second is equal to or greater than a predetermined threshold value, the robot control execution is determined. Otherwise, the operation S410 is repeated.
  • control operation inference unit 130 compares the signals obtained from the acceleration sensor mounted on the human body with reference models of the stored acceleration sensor signal, and infers the control operation of the robot (S430).
  • the pre-stored reference models are reference models corresponding to the forward, backward, left turn, and right turn operations of the robot body in the case of the left arm gesture.
  • the reference models corresponding to the upper, lower, left, and right rotational motions of the forearm and the fist-holding motion of the robot are respectively shown based on the elbow of the robot.
  • the upper, lower, left and right rotation of the forearm means the operation of lifting the forearm of the robot arm to the upper side with respect to the elbow, lowering to the lower side, turning to the left, and turning to the right.
  • the left arm posture (gesture) of the user used for controlling the body of the robot such as A, B, C, and D of FIG. 5 is forward (F), backward (B), and left (L): L of the robot, respectively.
  • Right (R) motion control is forward (F), backward (B), and left (L): L of the robot, respectively.
  • Right (R) motion control the right arm posture (gesture) of the user used for controlling the robot arm
  • E, F, G, H, and I of FIG. 5 is for controlling the initial posture, right, left, up, and down motion of the robot.
  • the control operation on the body of the robot can be inferred as one of forward, backward, left turn, and right turn, or the control action of the forearm based on the elbow of the robot is up, down, left, Inference can be made in either direction of rotation. Of course, you can also infer the fist movement.
  • step S430 the acceleration value obtained from the acceleration sensor and the previously stored acceleration values of the reference models are individually compared to infer an operation corresponding to the reference model having the minimum Euclidean distance as the control operation of the robot.
  • the acceleration value of the reference model corresponds to the optimal center value obtained for each cluster in the process of generating the reference model. Accordingly, step S430 compares the Euclidean distance between the currently detected values of the acceleration sensor and the optimal center values obtained for each cluster, and then controls the robot to control the corresponding motion corresponding to the closest cluster. Infer by action.
  • the robot driving controller 140 controls the driving of the robot to correspond to the inferred control operation of the robot (S440).
  • the control of the forward, backward, left, right, etc. of the robot body is made by changing the wheel speed corresponding to the inferred result.
  • the inferred motion is a motion of lifting the forearm of the robot upward, the robot is controlled to fit.
  • each gesture was measured 50 times.
  • the average of the accuracy was calculated by performing 100 times of cross-validation by dividing 25 training data and 25 test data without overlapping.
  • the number of samples used for robot control is 64 and the threshold of entropy is 12.
  • Table 1 shows the speeds of the left and right wheels according to the individual motions of the robot body.
  • Table 1 controls the robot wheel movement by recognizing the gesture of the left arm. When the gesture is determined, the direction of the corresponding wheel is determined and the movement control is performed.
  • Table 4 controls the forearm rotation angle of the robot arm by recognizing the gesture of the right arm. When the gesture is determined, the corresponding rotation angle is determined and the movement control is performed.
  • I denotes the initial posture of the robot arm
  • U, D, L, and R mean the forearm up, down, left, and right movements, respectively.
  • FIG. 6 illustrates an output distribution of an acceleration sensor for each motion corresponding to a right arm gesture according to an exemplary embodiment of the present invention.
  • Figure 7 shows the output distribution of the acceleration sensor for each motion corresponding to the left arm gesture according to an embodiment of the present invention.
  • the individual distributions are formed for each motion (5 motions for the right arm of FIG. 6 and 4 motions for the left arm of FIG. 7).
  • FIG. 6 and FIG. 7 it is confirmed that distributions are well divided without overlapping data for each operation. The result is a success rate close to 100% for all nine operations.
  • the present invention as described above provides a novel robot control method using attitude inference through acceleration signal processing and confirmation of the control will of the robot through EMG signal processing. Through this, it can be confirmed that the remote movement control of the robot and the movement control of the arm can be smoothly performed.
  • the present invention determines whether the robot is controlled through the entropy value of the EMG sensor, and then infers the most similar operation by calculating the Euclidean distance between the acceleration sensor signal and the reference models, and based on the inferred motion. By performing the robot control, it is possible to increase the accuracy and reliability of the robot control.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Manipulator (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

본 발명은 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법에 관한 것이다. 본 발명에 따르면, 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 단계와, 상기 근전도 신호의 엔트로피 값이 상기 임계값 이상이면 상기 로봇의 제어 실행을 결정하는 단계와, 상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론하는 단계, 및 상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어하는 단계를 포함하는 로봇 구동 제어 방법을 제공한다. 이에 따르면, 인체에 장착된 근전도 센서와 가속도 센서의 신호를 이용하여 사용자가 로봇의 구동을 원격으로 손쉽게 제어할 수 있다.

Description

근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법
본 발명은 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법에 관한 것으로서, 보다 상세하게는 인체에 부착된 근전도 센서와 가속도 센서의 신호를 이용하여 사용자가 로봇의 구동을 원격으로 제어할 수 있는 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법에 관한 것이다.
지능형 로봇이란 전통적으로 사용된 산업용 로봇의 개념과는 달리 외부 환경을 인식하고 스스로 판단하여 자율적으로 동작하거나 인간과 상호작용을 하는 로봇을 의미한다. 최근, 지능형 로봇은 우리 인간의 삶의 공간으로 한층 접근하고 있으며, 앞으로 미래 산업에 큰 비중을 차지할 것이라 예상된다. 이에 따라 지능형 로봇의 연구는 사람과 로봇의 상호작용 및 로봇 지능 향상에 비중을 두고 있으며, 가사보조 및 의료, 도우미 등의 여러 방면에 대한 응용이 연구되고 있다.
기존의 로봇 제어 방식은 조이스틱, 조이패드, 마우스 키보드와 같은 전용 장치를 이용하여 로봇을 조종하는 방법, 마이크를 통한 음성인식 또는 카메라를 통한 영상인식 기법을 통하여 사용자의 명령에 따라 로봇의 이동 제어가 되는 방법 등이 있다. 그런데, 이러한 기존의 방법은 별도의 전용 장치를 이용해야 하거나 주위 환경의 영향을 많이 받음에 따라 성능의 저하가 발생하는 단점이 있다. 특히, 음성을 이용한 경우는 주위의 소음이 심하면 오작동이 일어날 확률이 높으며, 카메라를 이용한 영상인식의 경우는 빛의 밝기에 따라서도 크게 영향을 받는다.
이러한 문제점을 해결하기 위한 것으로서 본 출원인에 의한 국내특허등록 제1159475호에는 인체에 장착된 근전도 센서와 가속도 센서를 이용하여 사용자가 손쉽게 로봇의 이동을 원격 제어하는 구성이 개시되어 있다. 이는 근전도 센서의 신호를 이용하여 로봇의 제어 여부를 결정하고 가속도 센서의 신호를 통해 추론된 로봇의 동작에 따라 로봇의 이동을 제어한다. 여기서, 로봇의 제어 여부 결정 시에 근전도 센서의 신호와 임계값을 서로 비교하는 방식을 사용하는데, 사용자의 연령, 성별, 건강 정도 등에 따라 근력이 모두 상이하여 사용자마다 측정되는 근전도 신호의 편차가 큰 편이다. 이에 따라 사용되는 임계값 크기의 결정이 어렵고 모든 사용자에 대한 범용성이 떨어지는 단점이 있다.
본 발명은, 근전도 신호의 엔트로피 값을 활용함에 따라 로봇의 제어 실행 여부의 결정에 대한 정확도를 높일 수 있는 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법을 제공하는데 목적이 있다.
본 발명은, 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 단계와, 상기 근전도 신호의 엔트로피 값이 상기 임계값 이상이면 상기 로봇의 제어 실행을 결정하는 단계와, 상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론하는 단계, 및 상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어하는 단계를 포함하는 로봇 구동 제어 방법을 제공한다.
여기서, 상기 근전도 센서는 복수 개이고, 상기 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 단계는, 상기 복수의 근전도 센서로부터 획득한 복수의 엔트로피 값을 서로 합산한 값을 상기 임계값과 비교할 수 있다.
또한, 상기 근전도 센서별 엔트로피 값(Hc)은 아래의 수학식으로 정의될 수 있다.
Figure PCTKR2013008019-appb-I000001
여기서, xc는 상기 복수의 근전도 센서 중 c번째 근전도 센서로부터 얻은 근전도 신호이고, Pc(m)은 xc와 m이 같을 때 xc의 확률, m은 bin의 인덱스, M은 bin의 총개수이다.
그리고, 상기 로봇 구동 제어 방법은, 복수의 학습용 가속도 신호들에 대해 K-mean 클러스터링 알고리즘을 적용하여 상기 제어 동작 별로 기준 모델들을 생성하는 단계를 더 포함할 수 있다.
또한, 상기 로봇의 제어 동작을 추론하는 단계는, 상기 가속도 센서로부터 얻은 가속도 값과 기 저장된 상기 기준모델들의 가속도 값을 개별 비교하여, 최소 유클리디언 거리를 갖는 기준 모델에 대응되는 동작을 상기 로봇의 제어 동작으로 추론할 수 있다.
여기서, 상기 로봇의 제어 동작을 추론하는 단계는, 상기 로봇의 몸체에 대한 제어 동작을 전진, 후진, 좌회전, 우회전 중 어느 하나로 추론하거나, 상기 로봇의 팔꿈치를 기준으로 전완부의 제어 동작을 상, 하, 좌, 우 중 어느 하나의 회전 방향으로 추론할 수 있다.
또한, 상기 인체는 두 팔 부위에 각각 해당되고, 상기 기준 모델은 상기 두 팔 부위에 대해 각각 복수 개로 저장되며, 상기 두 팔 중에서 어느 한 팔 부위의 제스쳐는 상기 로봇의 몸체에 대한 제어 동작과 관계하고, 다른 한 팔 부위의 제스쳐는 상기 로봇의 팔에 대한 제어 동작과 관계할 수 있다.
그리고, 본 발명은 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 엔트로피 비교부와, 상기 근전도 신호의 엔트로피 값이 상기 임계값 이상이면 상기 로봇의 제어 실행을 결정하는 로봇 제어 결정부와, 상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론하는 제어 동작 추론부, 및 상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어하는 로봇 구동 제어부를 포함하는 로봇 구동 제어 장치를 제공한다.
여기서, 상기 로봇 구동 제어 장치는, 복수의 학습용 가속도 신호들에 대해 K-mean 클러스터링 알고리즘을 적용하여 상기 제어 동작 별로 기준 모델들을 생성하는 기준모델 생성부를 더 포함할 수 있다.
본 발명에 따른 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법에 따르면, 인체에 장착된 근전도 센서와 가속도 센서의 신호를 이용하여 사용자가 로봇의 구동을 원격으로 손쉽게 제어할 수 있는 이점이 있다.
또한, 근전도 센서의 엔트로피 값을 통해 로봇의 제어 여부를 결정한 다음 가속도 센서의 신호와 기준모델들 사이의 유클리디안 거리의 산출을 통해 가장 유사한 동작을 추론하고, 추론된 동작을 바탕으로 로봇 제어를 수행함에 따라 로봇 제어의 정확도 및 신뢰도를 높일 수 있다.
도 1은 본 발명의 실시예에 따른 근전도 센서와 가속도 센서의 장착 예를 나타낸다.
도 2는 본 발명의 실시예에 사용되는 로봇의 예를 나타낸다.
도 3은 본 발명의 실시예에 따른 근전도 센서와 가속도 센서를 이용한 로봇 구동 제어 장치의 구성도이다.
도 4는 도 3을 이용한 로봇 구동 제어 방법의 흐름도이다.
도 5는 본 발명의 실시예에 사용되는 제어 동작의 예를 나타낸다.
도 6은 본 발명의 실시예에 따른 오른팔 제스쳐에 대응되는 동작 별 가속도 센서의 출력 분포를 나타낸다.
도 7은 본 발명의 실시예에 따른 왼팔 제스쳐에 대응되는 동작 별 가속도 센서의 출력 분포를 나타낸다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
본 발명은 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법에 관한 것으로서, 근전도 센서는 로봇의 제어 실행 여부를 결정하는 데에 사용되고, 가속도 센서는 사용자의 움직임에 대응되는 로봇의 동작 제어를 추론하는 데에 사용된다.
도 1은 본 발명의 실시예에 따른 근전도 센서와 가속도 센서의 장착 예를 나타낸다. 근전도 센서와 가속도 센서는 인체에 장착되는데, 본 실시예에서는 손목 부위와 인접한 곳에 장착된 것을 예시로 하여 설명한다. 센서모듈(10)은 블루투스 기반의 근전도 및 가속도 측정 모듈로서, 손목 부위의 바깥 쪽에 장착된다. 이러한 센서모듈(10)에는 근전도 센서(1)가 연결되어 있다. 근전도 센서(1)는 복수 개의 채널이 있는데, 본 실시예에서는 3개의 채널을 사용한다. 이러한 근전도 센서(1)는 손목 부위의 표면에 장착되는데, 더욱 상세하게는 손목과 인접되어 있는 팔의 전완 안쪽 부위에 장착된다. 근전도 센서(1)의 쌍극 간의 거리는 각 채널별로 균등하게 배치되어 있다. 근전도 신호의 샘플링 주파수는 64Hz이며 전력선 주파수 잡음을 제거하여 사용한다. 가속도 센서는 상기 손목 부위에 장착된 센서모듈(10)에 내장된 형태를 가진다. 본 실시예에서는 상기 근전도 센서(1)와 가속도 센서가 손목 부위에 장착된 것을 예시로 하나, 본 발명이 반드시 이에 한정되는 것은 아니다.
도 2는 본 발명의 실시예에 사용되는 로봇의 예를 나타낸다. 본 실시예에서는 바퀴 기반의 휴머노이드 로봇에 대한 주행 제어 방법을 제공한다. 상기 휴머노이드 로봇은 상체는 사람의 신체 기능을 모방하고, 하체는 바퀴 기반 모바일 차대 모듈로 구성되어 있다. 물론, 본 발명에 적용되는 로봇이 도 2과 같은 로봇 형태로 한정되는 것은 아니다.
도 3은 본 발명의 실시예에 따른 근전도 센서와 가속도 센서를 이용한 로봇 구동 제어 장치의 구성도이다.
상기 장치(100)는 엔트로피 비교부(110), 로봇 제어 결정부(120), 제어 동작 추론부(130), 로봇 구동 제어부(140), 기준모델 생성부(150)를 포함한다.
상기 엔트로피 비교부(110)는 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 부분이다. 여기서, 근전도 신호의 엔트로피 값은 근전도 신호의 변화량에 해당된다.
상기 로봇 제어 결정부(120)는 상기 근전도 신호의 엔트로피 값이 상기 임계값 이상이면 상기 로봇의 제어 실행을 결정하고, 상기 임계값 미만인 경우에는 상기 로봇의 제어를 실행하지 않고 대기토록 한다. 이는 매순간 입력되는 근전도 신호의 엔트로피 값을 계산하여, 계산된 파워가 임계값을 넘으면 다음의 로봇 제어 단계로 넘어가고 그렇지 않은 경우에는 로봇 제어를 수행하지 않음을 의미한다.
상기 제어 동작 추론부(130)는 상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론한다.
상기 로봇 구동 제어부(140)는 상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어한다. 여기서, 인체가 두 팔 부위에 해당되는 경우 기준 모델은 두 팔 부위에 대해 각각 복수 개로 저장된다. 따라서, 각각의 팔 부위에 대한 제스쳐 별로 그에 맞는 로봇의 구동 제어가 가능하다.
본 실시예의 경우, 상기 두 팔 중에서 어느 한 팔 부위(ex, 왼팔)의 제스쳐는 상기 로봇의 몸체에 대한 제어 동작(전진, 후진, 좌회전, 우회전 동작)과 관계하고, 다른 한 팔 부위(ex, 오른팔)의 제스쳐는 상기 로봇의 팔에 대한 제어 동작(전완부의 상, 하, 좌, 우 회동 동작, 주먹 쥐기 동작)과 관계한다.
상기 기준모델 생성부(150)는 상기 제어 동작 추론에 사용되는 기준 모델들을 동작 별로 생성해 둔다. 앞서와 같이, 기준 모델은 두 팔 부위에 대해 각각 복수 개로 생성한다. 생성된 기준모델 정보는 DB에 저장된다.
이러한 기준모델 생성부(150)는 미리 준비된 복수의 학습용 가속도 신호들에 대해 K-mean 클러스터링(clustering) 알고리즘을 적용하여 상기 제어 동작 별로 기준 모델들을 생성한다.
그 방법은 다음과 같다. 먼저, 3축 가속도 센서로부터 복수의 학습용 가속도 신호들의 정보를 수집한다. 이때, 각각의 로봇 동작에 대응되는 제스쳐 별로 가속도 신호들의 정보를 다양한 양으로 수집한다. 데이터의 양이 많을수록 생성되는 기준 모델에 대한 최적의 중심값을 획득할 수 있다.
수집된 가속도 신호들은 모두 x축 신호 Vx(t), y축 신호 Vy(t), z축 신호 Vz(t)로 구성된다. 즉, 가속도 신호는 V(t) = [ Vx(t), Vy(t), Vz(t) ]로 표현된다.
먼저, 클러스터링하고자 하는 개수(제어하고자 하는 로봇 동작의 개수)만큼 임의의 초기 중심점들 Td(0)을 설정한다. 여기서, d는 각 초기 중심점을 구분하는 인덱스이다. 그리고, 수집된 가속도 신호 V(t)와 초기 중심점들 Td(0) 사이의 유클리디언 거리를 계산한 후, 초기 중심점들 중 가장 가까운 거리에 해당되는 초기 중심점 Td(0)의 군집 Sd 내에 해당 V(t)를 소속시킨다. 만약, d=1,2,…,N이면, T1과 가장 가까운 데이터들은 S1에, T2과 가장 가까운 데이터들은 S2에 소속시킨다.
이후, 해당 군집 Sd에 소속된 모든 V(t)들의 평균 값을 이용하여 중심값 Td를 갱신한다. 이러한 과정을 목표 임계치까지 수렴시키면, 각 군집(로봇 동작) 별로 그에 대응되는 최적의 중심값을 계산할 수 있다. 즉, 본 실시예에서는 이상과 같은 방법으로 각각의 동작에 대응되는 기준 모델을 생성한다.
이러한 동작 별 기준 모델의 생성에 사용된 K-mean 클러스터링 알고리즘의 구성과 원리는 기 공지된 사항이므로 보다 구체적인 설명은 생략한다.
도 4는 도 3을 이용한 로봇 구동 제어 방법의 흐름도이다. 이하에서는 도 3 및 도 4를 참조로 하여 본 발명의 실시예에 따른 로봇 구동 제어 방법에 관하여 상세히 설명한다.
우선 본 발명의 실시예에 앞서, 기준모델 생성부는 K-mean 클러스터링 알고리즘을 이용하여 제어 동작 별로 기준 모델들을 생성하여 DB에 저장하여 둔다. 이러한 기준 모델들은 이후의 로봇 동작 추론에 사용되는 중요한 데이터 베이스로 활용된다.
다음, 엔트로피 비교부(110)는 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교한다(S410).
본 실시예에서는 상기 근전도 센서가 복수 개(ex, 3개)의 채널로 구성된다. 이러한 경우, S410 단계는 상기 복수의 근전도 센서로부터 획득한 복수의 엔트로피 값을 서로 합산한 값을 상기 임계값과 비교한다.
여기서, 상기 근전도 센서별로 엔트로피 값(Hc)은 아래의 수학식 1로 정의된다.
수학식 1
Figure PCTKR2013008019-appb-M000001
여기서, xc는 상기 복수의 근전도 센서 중 c번째 근전도 센서로부터 얻은 근전도 신호이고, Pc(m)은 xc와 m이 같을 때 xc의 확률, m은 bin의 인덱스, M은 bin의 총개수이다.
본 실시예의 경우 C=1,2,3으로서 채널 번호를 나타낸다. 전완의 안쪽에서 측정된 3 채널의 근전도 신호는 xc[n]으로 표현 가능하다. xc[n]은 C∈{1,2,3} 번째 채널에서 발생한 신호이며, n은 64Hz로 샘플링한 이산시간 인덱스를 의미한다.
여기서, Pc(m)은 아래의 수학식 2로 표현된다.
수학식 2
Figure PCTKR2013008019-appb-M000002
즉, Pc(m)는 Im에 속하는 샘플의 수를 전체 샘플의 개수로 나눈 값을 나타낸다. Xmax는 신호 취득 장비의 가장 큰 값, 즉 최대 근전도 값을 나타낸다. 본 실시예의 경우 M=1000, Xmax는 1050㎶이나 실험자의 근전도 특성에 따라 달리 적용될 수 있다.
이상의 수학식 1과 같이 S410 단계에서는 근전도 신호의 정보 엔트로피를 이용하여 로봇의 제어 실행 여부를 판별한다.
또한, 본 실시예의 경우, 상기 수학식 1을 통해 획득된 각각의 채널별 엔트로피 값을 합산한 결과(P = H1 + H2 + H3)를 기 설정된 임계값과 비교한다. 이는 아래의 수학식 3으로 정의된다.
수학식 3
Figure PCTKR2013008019-appb-M000003
만약, 상기 근전도 신호의 엔트로피 값 즉, 수학식 3의 값이 기 설정된 임계값 이상이면 로봇 제어 결정부(120)는 상기 로봇의 제어 실행을 결정한다(S420). 예를 들면, 1초 동안 측정된 3채널 근전도 신호에 대한 엔트로피의 총 합이 사전에 정해놓은 임계값 이상이면 로봇 제어 실행을 결정하고, 그렇지 않은 경우에는 상기 S410 단계를 재실행한다.
다음, 제어 동작 추론부(130)는 상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론한다(S430).
여기서, 상기 기 저장된 기준모델들은 왼팔 제스쳐의 경우, 상기 로봇 몸체의 전진, 후진, 좌회전, 우회전 동작들에 각각 대응되는 기준모델들이다. 또한, 오른팔 제스쳐의 경우, 상기 로봇의 팔꿈치를 기준으로 전완부의 상, 하, 좌, 우 회동 동작들과 로봇의 주먹 쥐기 동작에 각각 대응되는 기준모델들을 나타낸다. 여기서, 전완부의 상, 하, 좌우 회동이란 로봇 팔의 전완부를 팔꿈치를 기준으로 상측으로 드는 동작, 하측으로 내리는 동작, 좌측으로 돌리는 동작, 우측으로 돌리는 동작을 의미한다.
도 5는 본 발명의 실시예에 사용되는 제어 동작의 예를 나타낸다. 도 5의 A, B, C, D와 같은 로봇의 몸체 제어에 사용되는 사용자의 왼팔 자세(제스쳐)는 각각 로봇의 전진(Forward: F), 후진(Backward: B), 좌회전(Left: L), 우회전(Right: R) 동작 제어를 위한 것이다. 그리고, 도 5의 E, F, G, H, I와 같은 로봇 팔 제어에 사용되는 사용자의 오른팔 자세(제스쳐)는 로봇의 초기자세, 우, 좌, 상, 하 동작 제어를 위한 것이다.
따라서, 상기 동작 추론 단계(S430)에서는 상기 로봇의 몸체에 대한 제어 동작을 전진, 후진, 좌회전, 우회전 중 어느 하나로 추론하거나, 상기 로봇의 팔꿈치를 기준으로 전완부의 제어 동작을 상, 하, 좌, 우 중 어느 하나의 회전 방향으로 추론할 수 있다. 물론, 이외에도 주먹을 쥐는 움직임을 추론할 수도 있다.
여기서, S430 단계는 현재 상기 가속도 센서로부터 얻은 가속도 값과 기 저장된 상기 기준모델들의 가속도 값을 개별 비교하여, 최소 유클리디언 거리를 갖는 기준 모델에 대응되는 동작을 상기 로봇의 제어 동작으로 추론한다. 이때, 기준 모델의 가속도 값은 앞서 기준 모델 생성 과정 시에 각각의 군집 별로 획득한 최적의 중심값과 대응된다. 따라서, S430 단계는 현재 얻어진 가속도 센서의 감지 값과 각 군집별 얻어진 최적의 중심값들 사이의 유클리디안 거리를 개별적으로 비교한 다음, 가장 거리가 가까운 군집에 대응되는 해당 동작을 상기 로봇의 제어 동작으로 추론한다.
이후, 상기 로봇 구동 제어부(140)는 상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어한다(S440). 이때, 상기 추론된 결과에 해당되는 바퀴 속도의 변화를 통하여 로봇 몸체의 전진, 후진, 좌회전, 우회전 등의 제어가 이루어지도록 한다. 이외에도 추론된 동작이 로봇의 전완부를 상측으로 드는 동작이면 이에 맞도록 로봇의 구동을 제어한다.
이하에서는, 본 발명의 실시예를 로봇 제어에 적용한 실험 결과를 설명한다. 제어 동작 별 로봇의 구동 제어의 정확도를 확인하기 위하여, 각각의 제스쳐에 대하여 50번 측정하였다. 25 개의 트레이닝 데이터와 25 개의 테스트 데이터를 중복되지 않게 나누어 교차 검증을 100회 시행하여 정확도의 평균을 계산하였다. 로봇 제어에 사용된 샘플의 개수는 64 개이며 엔트로피의 임계값은 12이다.
로봇 몸체의 개별 동작에 따른 좌우 바퀴의 속도는 표 1와 같다.
표 1
왼쪽 바퀴(m/s) 오른쪽 바퀴(m/s)
전진(F) 0.50 0.50
후진(B) -0.50 -0.50
좌회전(L) -0.25 0.25
우회전(R) 0.25 -0.25
표 1은 왼팔의 제스쳐를 인식하여 로봇 바퀴 움직임을 제어한 것이다. 제스쳐가 판별되면 그에 해당하는 바퀴의 방향 결정과 이동 제어를 하게 된다.
로봇 몸체의 구동 제어에 사용된 동작 별 가속도 신호의 기준 모델의 값은 표 2를 참조한다.
표 2
x축 y축 z축
전진 1.79 2.40 1.69
후진 1.69 1.90 0.83
좌회전 1.73 1.58 2.37
우회전 2.17 1.24 1.75
로봇 몸체 구동을 위한 왼팔 제스쳐에 따른 판별의 정확도는 표 3과 같다. 이를 참조하면, 4개의 동작 모두 100%의 성공률을 보였고, 이를 통해 안정적인 동작 판별을 확인할 수 있다.
표 3
전진 후진 좌회전 우회전
전진 100% 0% 0% 0%
후진 0% 100% 0% 0%
좌회전 0% 0% 100% 0%
우회전 0% 0% 0% 100%
로봇 팔의 개별 동작에 따른 회전 각도는 표 4를 참조한다.
표 4
전완의 회전 각(deg.)
2.0
-2.0
2.0
-2.0
표 4는 오른팔의 제스쳐를 인식하여 로봇 팔의 전완부 회전각을 제어한 것이다. 제스쳐가 판별되면 그에 해당하는 회전각의 결정과 이동 제어를 하게 된다.
로봇 팔의 구동 제어에 사용된 동작 별 가속도 신호의 기준 모델의 값은 표 5를 참조한다.
표 5
x축 y축 z축
I 1.59 0.86 1.43
U 2.32 1.55 1.73
D 0.78 1.49 1.60
L 1.61 1.59 2.41
R 1.63 1.56 0.79
표 5에서 I는 로봇 팔의 초기 자세, U, D, L, R은 각각 전완의 상, 하, 좌, 우 동작을 의미한다.
로봇 팔 구동을 위한 오른팔 제스쳐에 따른 판별의 정확도는 표 6과 같다. 이를 참조하면, 5개의 동작 모두 100%의 성공률을 보였고, 이를 통해 안정적인 동작 판별을 확인할 수 있다.
표 6
I U D L R
I 100% 0% 0% 0% 0%
U 0% 100% 0% 0% 0%
D 0% 0% 100% 0% 0%
L 0% 0% 0% 100% 0%
R 0% 0% 0% 0% 100%
도 6은 본 발명의 실시예에 따른 오른팔 제스쳐에 대응되는 동작 별 가속도 센서의 출력 분포를 나타낸다. 그리고, 도 7은 본 발명의 실시예에 따른 왼팔 제스쳐에 대응되는 동작 별 가속도 센서의 출력 분포를 나타낸다. 각각의 동작 별(도 6의 오른팔의 경우 5개 동작, 도 7의 왼팔의 경우 4개 동작)로 개별 분포를 형성하고 있다. 도 6과 도 7의 결과 모두 각각의 동작 별로 데이터의 중복 없이 분포가 서로 겹치지 않게 잘 나누어져 있음이 확인된다. 결과적으로 9개의 모든 동작에 대해 100%에 근접한 성공률을 나타내었다.
이상과 같은 본 발명은, 가속도 신호 처리를 통한 자세 추론과 근전도 신호 처리를 통한 로봇의 제어 의지의 확인을 이용한 새로운 로봇 제어 방법을 제공한다. 이를 통해 로봇의 원격 이동 제어 및 팔의 움직임 제어를 원활하게 수행할 수 있음을 확인할 수 있다. 또한, 본 발명은 근전도 센서의 엔트로피 값을 통해 로봇의 제어 여부를 결정한 다음 가속도 센서의 신호와 기준모델들 사이의 유클리디안 거리의 산출을 통해 가장 유사한 동작을 추론하고, 추론된 동작을 바탕으로 로봇 제어를 수행함에 따라 로봇 제어의 정확도 및 신뢰도를 높일 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.

Claims (12)

  1. 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 단계;
    상기 근전도 신호의 엔트로피 값이 상기 임계값 이상이면 상기 로봇의 제어 실행을 결정하는 단계;
    상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론하는 단계; 및
    상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어하는 단계를 포함하는 로봇 구동 제어 방법.
  2. 청구항 1에 있어서,
    상기 근전도 센서는 복수 개이고,
    상기 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 단계는,
    상기 복수의 근전도 센서로부터 획득한 복수의 엔트로피 값을 서로 합산한 값을 상기 임계값과 비교하는 로봇 구동 제어 방법.
  3. 청구항 2에 있어서,
    상기 근전도 센서별 엔트로피 값(Hc)은 아래의 수학식으로 정의되는 로봇 구동 제어 방법:
    Figure PCTKR2013008019-appb-I000002
    여기서, xc는 상기 복수의 근전도 센서 중 c번째 근전도 센서로부터 얻은 근전도 신호이고, Pc(m)은 xc와 m이 같을 때 xc의 확률, m은 bin의 인덱스, M은 bin의 총개수이다.
  4. 청구항 1에 있어서,
    복수의 학습용 가속도 신호들에 대해 K-mean 클러스터링 알고리즘을 적용하여 상기 제어 동작 별로 기준 모델들을 생성하는 단계를 더 포함하는 로봇 구동 제어 방법.
  5. 청구항 1에 있어서,
    상기 로봇의 제어 동작을 추론하는 단계는,
    상기 가속도 센서로부터 얻은 가속도 값과 기 저장된 상기 기준모델들의 가속도 값을 개별 비교하여, 최소 유클리디언 거리를 갖는 기준 모델에 대응되는 동작을 상기 로봇의 제어 동작으로 추론하는 로봇 구동 제어 방법.
  6. 청구항 5에 있어서,
    상기 로봇의 제어 동작을 추론하는 단계는,
    상기 로봇의 몸체에 대한 제어 동작을 전진, 후진, 좌회전, 우회전 중 어느 하나로 추론하거나, 상기 로봇의 팔꿈치를 기준으로 전완부의 제어 동작을 상, 하, 좌, 우 중 어느 하나의 회전 방향으로 추론하는 로봇 구동 제어 방법.
  7. 청구항 6에 있어서,
    상기 인체는 두 팔 부위에 각각 해당되고, 상기 기준 모델은 상기 두 팔 부위에 대해 각각 복수 개로 저장되며,
    상기 두 팔 중에서 어느 한 팔 부위의 제스쳐는 상기 로봇의 몸체에 대한 제어 동작과 관계하고, 다른 한 팔 부위의 제스쳐는 상기 로봇의 팔에 대한 제어 동작과 관계하는 로봇 구동 제어 방법.
  8. 인체에 장착된 근전도 센서로부터 얻은 근전도 신호의 엔트로피 값을 기 저장된 임계값과 비교하는 엔트로피 비교부;
    상기 근전도 신호의 엔트로피 값이 상기 임계값 이상이면 상기 로봇의 제어 실행을 결정하는 로봇 제어 결정부;
    상기 인체에 장착된 가속도 센서로부터 얻은 신호와 기 저장된 가속도 센서 신호의 기준 모델들을 비교하여, 상기 로봇의 제어 동작을 추론하는 제어 동작 추론부; 및
    상기 추론된 로봇의 제어 동작에 대응되도록 상기 로봇의 구동을 제어하는 로봇 구동 제어부를 포함하는 로봇 구동 제어 장치.
  9. 청구항 8에 있어서,
    상기 근전도 센서는 복수 개이고,
    상기 엔트로피 비교부는,
    상기 복수의 근전도 센서로부터 획득한 복수의 엔트로피 값을 서로 합산한 값을 상기 임계값과 비교하는 로봇 구동 제어 장치.
  10. 청구항 9에 있어서,
    상기 근전도 센서별 엔트로피 값(Hc)은 아래의 수학식으로 정의되는 로봇 구동 제어 장치:
    Figure PCTKR2013008019-appb-I000003
    여기서, xc는 상기 복수의 근전도 센서 중 c번째 근전도 센서로부터 얻은 근전도 신호이고, Pc(m)은 xc와 m이 같을 때 xc의 확률, m은 bin의 인덱스, M은 bin의 총개수이다.
  11. 청구항 8에 있어서,
    복수의 학습용 가속도 신호들에 대해 K-mean 클러스터링 알고리즘을 적용하여 상기 제어 동작 별로 기준 모델들을 생성하는 기준모델 생성부를 더 포함하는 로봇 구동 제어 장치.
  12. 청구항 8에 있어서,
    상기 로봇의 제어 동작을 추론하는 단계는,
    상기 가속도 센서로부터 얻은 가속도 값과 기 저장된 상기 기준모델들의 가속도 값을 개별 비교하여, 최소 유클리디언 거리를 갖는 기준 모델에 대응되는 동작을 상기 로봇의 제어 동작으로 추론하는 로봇 구동 제어 장치.
PCT/KR2013/008019 2012-09-24 2013-09-05 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법 WO2014046404A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0105740 2012-09-24
KR1020120105740A KR101428857B1 (ko) 2012-09-24 2012-09-24 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
WO2014046404A2 true WO2014046404A2 (ko) 2014-03-27
WO2014046404A3 WO2014046404A3 (ko) 2014-05-22

Family

ID=50342041

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/008019 WO2014046404A2 (ko) 2012-09-24 2013-09-05 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101428857B1 (ko)
WO (1) WO2014046404A2 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101849350B1 (ko) * 2015-09-08 2018-04-17 경희대학교 산학협력단 근전도 센서와 관성센서를 사용한 제스처 인식 기반의 모바일 로봇 제어 시스템 및 방법
KR102260258B1 (ko) * 2019-04-11 2021-06-07 광운대학교 산학협력단 휴먼 로봇 인터페이스를 위한 전극 어레이 웨어러블 장착구, 휴먼 로봇 인터페이스를 위한 근전도 측정결과 판단장치, 그리고 이들을 포함하는 휴먼 로봇 인터페이스 시스템
KR102513381B1 (ko) * 2021-04-15 2023-03-22 충남대학교산학협력단 멀티모달 센싱을 이용한 토크와 자세기반 로봇 교시법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145474A (ja) * 2001-08-31 2003-05-20 Hiroshima Pref Gov 多指可動ロボットハンド及びその把持制御方法
JP2010058250A (ja) * 2008-09-05 2010-03-18 Tokyo Institute Of Technology 筋骨格系モデル作成装置および該方法、筋骨格系機構制御装置ならびに筋骨格系機構システム
KR20120064922A (ko) * 2010-12-10 2012-06-20 숭실대학교산학협력단 근전도 센서와 자이로 센서를 이용한 지화 인식 방법 및 장치
KR20120064923A (ko) * 2010-12-10 2012-06-20 숭실대학교산학협력단 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145474A (ja) * 2001-08-31 2003-05-20 Hiroshima Pref Gov 多指可動ロボットハンド及びその把持制御方法
JP2010058250A (ja) * 2008-09-05 2010-03-18 Tokyo Institute Of Technology 筋骨格系モデル作成装置および該方法、筋骨格系機構制御装置ならびに筋骨格系機構システム
KR20120064922A (ko) * 2010-12-10 2012-06-20 숭실대학교산학협력단 근전도 센서와 자이로 센서를 이용한 지화 인식 방법 및 장치
KR20120064923A (ko) * 2010-12-10 2012-06-20 숭실대학교산학협력단 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법

Also Published As

Publication number Publication date
KR101428857B1 (ko) 2014-08-12
KR20140039518A (ko) 2014-04-02
WO2014046404A3 (ko) 2014-05-22

Similar Documents

Publication Publication Date Title
CN101739172B (zh) 触摸行为辨认装置和方法、信息处理装置及计算机程序
WO2014046404A2 (ko) 근전도 센서와 가속도 센서를 이용한 로봇 동작 제어 장치 및 방법
KR101159475B1 (ko) 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법
WO2012165880A2 (ko) 재활 운동 장치, 재활 운동 장치에서의 능동 보조 제어 방법 및 장치, 모바일 연동 장갑형 데이터 입력 장치
JP2023542055A (ja) オブジェクトインスタンスの分類および認識のための対話型触覚認知方法
CN105014676A (zh) 一种机器人运动控制方法
JP2018024082A (ja) 多軸運動制御デバイス、ロボットアームシステム、ロボットアームシステムの動きを制御する方法及び多軸運動駆動デバイスの動きを制御するための方法
WO2012161407A1 (en) Method of motion tracking
CN108227905A (zh) 一种基于表面肌电信号的游戏控制系统
Millán et al. Non-invasive brain-actuated control of a mobile robot
WO2016129773A1 (ko) 피드백을 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN113370172B (zh) 基于多传感器和力反馈的辅助机械手系统及其使用方法
CN209737631U (zh) 一种水下机器人用体感操纵式仿生机械手臂
Chen et al. Intelligent computational control of multi-fingered dexterous robotic hand
CN108247601A (zh) 基于深度学习的语义抓取机器人
CN105425660B (zh) 通过惯性传感器进行人体行为判断的分析匹配工作方法
WO2023068440A1 (ko) 로봇 손 시스템 및 로봇 손 제어 방법
Gäbert et al. Gesture based symbiotic robot programming for agile production
CN204748634U (zh) 一种机器人运动控制系统
WO2020122328A1 (ko) 움직임 가능한 큐브형 마우스
WO2015176467A1 (zh) 机器人
CN105404182B (zh) 重力加速度仪获取方向信息进行行为分析的方法
CN105389009B (zh) 通过重力传感器进行身份识别的控制系统及方法
CN105425946B (zh) 通过重力陀螺仪进行行为匹配控制分析的系统及方法
CN113552945B (zh) 一种人机交互的手套系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13838258

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 13838258

Country of ref document: EP

Kind code of ref document: A2