KR101343860B1 - Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor - Google Patents

Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor Download PDF

Info

Publication number
KR101343860B1
KR101343860B1 KR1020130000646A KR20130000646A KR101343860B1 KR 101343860 B1 KR101343860 B1 KR 101343860B1 KR 1020130000646 A KR1020130000646 A KR 1020130000646A KR 20130000646 A KR20130000646 A KR 20130000646A KR 101343860 B1 KR101343860 B1 KR 101343860B1
Authority
KR
South Korea
Prior art keywords
motion
data
bci
robot
information
Prior art date
Application number
KR1020130000646A
Other languages
Korean (ko)
Inventor
김민수
손상혁
김진욱
전강욱
홍인정
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020130000646A priority Critical patent/KR101343860B1/en
Application granted granted Critical
Publication of KR101343860B1 publication Critical patent/KR101343860B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided is a robot avatar system equipped with a hybrid interface including a brain computer interface (BCI), a head-mounted display (HMD) or smart glasses, a motion sensor, a position sensor, a microphone, a speaker, a tactile sensor, and a haptic actuator. The robot avatar system of the present invention comprises: an interface including the BCI, the HMD or the smart glasses, the motion sensor, the position sensor, the microphone, the speaker, the tactile sensor, and the haptic actuator; a command server which generates a command to control the behavior of the robot based on BCI information and motion information received therein from the BCI and the motion sensor or the position senor and outputs the voice information of a person received from the microphone through the robot; a BCI-motion learning server which constructs a BCI-motion mapping database and a label determination model used in the command server based on the BCI information and the motion information received therein from the BCI and the motion sensor or the position sensor; and a sensory server which processes audio, video, and tactile information, which are obtained through the robot, and outputs the processed information through the speaker, the HMD or the smart glasses, and the haptic actuator. [Reference numerals] (110) BCI device;(120) HMD/Smart glasses;(130) Vision sensor;(140,620) Microphone;(160) Position sensor;(200) Command server;(400) BCI-motion learning server;(500) Sensory server;(610) Camera;(640) Speaker;(650) Tactile sensor;(AA) Motion command, voice;(BB) BCI data, vision/position data, voice;(CC) Humanoid;(DD) Person;(EE) Raw sensory data;(FF) Processed sensory data

Description

하이브리드 인터페이스를 사용하는 로봇 아바타 시스템과 로봇 아바타 시스템에서 사용되는 명령 서버, 학습 서버 및 지각 서버{Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor} Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor}

본 발명은 로봇 아바타 시스템 및 로봇 아바타 시스템에 관한 것으로서, 더 구체적으로는 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에 관한 것이다.The present invention relates to a robot avatar system and a robot avatar system, and more particularly to a robot avatar system using a hybrid interface.

아바타의 개념은 영화 등을 통해 대중에게 인지되어 있지만 실제로 그 개념을 구현하기 위한 방법에 대해서는 연구가 충분히 이루어져 있지 않다. The concept of the avatar is recognized by the public through movies and the like, but the method for realizing the concept is not sufficiently studied.

아바타는 컴퓨터 사용자 스스로를 묘사한 것으로 컴퓨터 게임에서는 2/3차원 모형 형태로, 인터넷 포럼과 기타 커뮤니티에서는 2차원 아이콘(그림)으로, 머드 게임과 같은 초기 시스템에서는 문자열 구조로 쓰인다. 다시 말해, 사용자가 스스로의 모습을 부여한 물체라고 할 수 있다(출처: 인터넷 위키백과).Avatars depict themselves as computer users, two-dimensional models in computer games, two-dimensional icons (pictures) in Internet forums and other communities, and string structures in early systems such as mud games. In other words, it is an object that gives the user its own appearance (Source: Internet Wikipedia).

이와 관련한 종래기술로서, 공개특허 제10-2009-0113084호, 공개특허 제10-2011-0047847호 등이 있다.As a related art in this regard, there is a Patent Publication No. 10-2009-0113084, Patent Publication No. 10-2011-0047847.

공개특허 제10-2009-0113084호에서는, 사용자의 2 차원 영상 정보 및 거리 정보를 포함하는 3차원 영상 정보를 인식하고, 상기 3차원 영상 정보를 기반으로 제1 기준점 및 제2 기준점을 파악하여, 상기 제1 기준점 및 제2 기준점의 3차원 좌표를 기반으로 상기 관절의 각도 변화를 계산하고, 유/무선 네트워크를 통해 관절 제어 신호를 전송하는 원격 제어 장치와, 상기 원격 제어 장치로부터 수신되는 상기 관절 제어 신호로부터 관절 제어 데이터를 파악하여, 상기 관절의 각도를 변화시켜 상기 사용자의 움직임에 상응하는 움직임을 가지는 로봇을 포함하는 로봇의 움직임 제어 시스템을 개시하고 있다.In Patent Publication No. 10-2009-0113084, 3D image information including 2D image information and distance information of a user is recognized, and a first reference point and a second reference point are identified based on the 3D image information. A remote control device that calculates a change in the angle of the joint based on three-dimensional coordinates of the first reference point and the second reference point, and transmits a joint control signal through a wired / wireless network, and the joint received from the remote control device; Disclosed is a motion control system of a robot including a robot which grasps joint control data from a control signal and changes the angle of the joint to have a motion corresponding to the movement of the user.

공개특허 제10-2011-0047847호에서는, 휴머노이드 로봇에 명령된 동작과 관련성이 높은 메인 모션을 수행하는 로봇 부분에 대해서는 로봇 동역학을 고려한 모션 최적화 작업을 통해 생성한 최적화한 모션 궤적을 따라 움직이도록 제어하고, 명령된 동작과 관련성이 낮은 나머지 모션을 수행하는 로봇 부분에 대해서는 명령된 동작에 대응하도록 미리 정해진 모션 궤적을 따라 움직이도록 제어함으로써 휴머노이드 로봇의 전신 모션 최적화를 단순화할 수 있으면서도 휴머노이드 로봇이 명령된 동작을 실제 인간의 행위와 최대한 유사하게 수행할 수 있는 휴머노이드 로봇 및 그 제어방법을 개시하고 있다.In Korean Patent Laid-Open No. 10-2011-0047847, the robot part performing the main motion highly related to the motion commanded to the humanoid robot is controlled to move along the optimized motion trajectory generated by the motion optimization operation considering the robot dynamics. In addition, by controlling the robot part to perform the remaining motion that is not related to the commanded motion to move along a predetermined motion trajectory to correspond to the commanded motion, the humanoid robot can be simplified while optimizing the whole body motion optimization of the humanoid robot. Disclosed are a humanoid robot capable of performing an operation as closely as possible to an actual human action and a control method thereof.

본 발명은 상술한 바와 같은 기술적 배경에서 안출된 것으로서, 휴머노이드 타입의 로봇을 조정하여 사람의 행동과 말을 휴머노이드가 모방할 수 있고, 휴머노이드가 받아들이는 시각, 청각, 촉각 정보를 사람에게 전달할 수 있는 로봇 아바타 시스템을 제공하는 것을 그 과제로 한다.The present invention has been made in the technical background as described above, by adjusting the humanoid robot, the humanoid can imitate human behavior and speech, and can transmit the visual, auditory, tactile information accepted by the humanoid to the human The task is to provide a robot avatar system.

본 발명의 다른 과제는 로봇 아바타 시스템에서 사람의 행동과 말을 유연하고 정확하게 모방할 수 있도록 개인 맞춤형 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템을 제공하고자 하는 것이다.Another object of the present invention is to provide a robot avatar system using a personalized hybrid interface to imitate human behavior and speech in a flexible and accurate manner.

이와 같은 과제를 해결하기 위하여 본 발명에서는, 뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface), 헤드 마운트 디스플레이(HMD: Head-Mounted Display) 또는 스마트 안경(Smart Glasses), 모션 센서, 위치 센서, 마이크로폰, 스피커, 촉각 센서, 햅틱 액추에이터를 포함하는 하이브리드 인터페이스를 갖춘 로봇 아바타 시스템을 제공한다. In order to solve the above problems, in the present invention, a Brain Computer Interface (BCI), Head-Mounted Display (HMD) or Smart Glasses, Motion Sensor, Position Sensor, Microphone, A robot avatar system having a hybrid interface including a speaker, a tactile sensor, and a haptic actuator is provided.

본 발명의 일 면에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템은, 뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface), 헤드 마운트 디스플레이(HMD: Head-Mounted Display) 또는 스마트 안경(Smart Glasses), 모션 센서(motion sensor) 또는 위치 센서, 마이크로폰(microphone), 스피커, 촉각 센서, 햅틱 액추에이터(haptic actuator)를 포함하는 인터페이스; 상기 BCI 및 상기 모션 센서 또는 위치 센서로부터 수신한 BCI 정보 및 움직임 정보를 기반으로 상기 로봇의 행동을 제어하기 위한 명령을 생성하며, 상기 마이크로폰으로부터 수신한 사람의 음성 정보를 상기 로봇을 통해 출력하도록 전달하는 명령 서버; 상기 BCI 및 상기 모션 센서 또는 위치 센서로부터 수신한 BCI 정보 및 움직임 정보를 기반으로 상기 명령 서버에서 사용되는 BCI-모션 매핑 데이터베이스 및 라벨 판별 모델을 구축하는 BCI-모션 학습 서버; 및 상기 로봇을 통해 획득한 오디오, 비디오, 촉각 정보를 각각 상기 스피커, HMD 또는 스마트 안경, 햅틱 엑추에이터를 통해 출력할 수 있도록 가공하는 지각 서버를 포함하여 구성된다.Robot avatar system using a hybrid interface according to an aspect of the present invention, a brain computer interface (BCI), Head-Mounted Display (HMD) or smart glasses (Smart Glasses), motion sensors an interface including a motion sensor or a position sensor, a microphone, a speaker, a tactile sensor, and a haptic actuator; Generate a command for controlling the behavior of the robot based on the BCI and the BCI information and motion information received from the motion sensor or position sensor, and delivers the voice information of the person received from the microphone through the robot A command server; A BCI-motion learning server for constructing a BCI-motion mapping database and a label discrimination model used in the command server based on the BCI and BCI information and motion information received from the motion sensor or position sensor; And a perception server that processes audio, video, and tactile information obtained through the robot to be output through the speaker, the HMD or the smart glasses, and the haptic actuator, respectively.

여기에서, 상기 마이크로폰과 상기 스피커는 상기 HMD 또는 스마트 안경과 일체형으로 형성되거나, 상기 BCI가 상기 HMD 또는 스마트 안경과 일체형으로 형성될 수 있다.The microphone and the speaker may be integrally formed with the HMD or the smart glasses, or the BCI may be integrally formed with the HMD or the smart glasses.

본 발명의 다른 면에 따르면, 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 로봇을 제어하기 위한 명령을 생성하는 명령 서버가 제공되며, 이는 비전 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 비전 데이터 전처리부; 위치 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 위치 데이터 전처리부; 상기 비전 센서 및 위치 센서로부터 비전 데이터 및 위치 데이터를 받아들여 상기 비전 데이터 및 위치 데이터들 사이의 불일치를 해결하고 조절함으로써 정확한 움직임 데이터를 실시간으로 추출하는 실시간 움직임 미세 조절부; 뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface)로부터 수신된 BCI 정보를 전처리하는 BCI 데이터 전처리부; 전처리된 BCI 데이터를 데이터베이스에 저장된 판별 모델을 이용하여 실시간으로 분석함으로써 사용자가 현재 어떤 종류의 움직임을 생각하는 것인지를 나타내는 라벨을 판별하는 실시간 BCI 라벨 판별부; 판별된 상기 라벨을 기반으로 BCI-모션 매핑 데이터베이스로부터 움직임 데이터를 인출하는 움직임 데이터 인출부; 상기 실시간 움직임 미세 조절부에 의해 미세 조절된 제1 움직임 데이터와 상기 움직임 데이터 인출부에 의해 인출된 제2 움직임 데이터를 기반으로 상기 사용자가 의도하는 움직임을 결정하는 하이브리드 모션 생성부; 상기 하이브리드 모션 생성부에 의해 결정된 움직임과 상기 로봇의 정보를 기반으로 상기 사용자의 움직임을 로봇의 움직임으로 매핑하는 사람-로봇 움직임 매핑부; 및 움직임 명령을 전송하는 움직임 명령 전송부를 포함한다.According to another aspect of the present invention, there is provided a command server for generating a command for controlling a robot in a robot avatar system using a hybrid interface, which includes a vision data preprocessor for receiving and preprocessing motion information obtained from a vision sensor; A position data preprocessor configured to receive and preprocess the motion information acquired from the position sensor; A real time motion fine control unit which receives the vision data and the position data from the vision sensor and the position sensor and extracts accurate motion data in real time by resolving and adjusting the inconsistency between the vision data and the position data; A BCI data preprocessor for preprocessing BCI information received from a Brain Computer Interface (BCI); A real-time BCI label discrimination unit for determining a label indicating what kind of movement the user currently thinks by analyzing the preprocessed BCI data in real time using a discrimination model stored in a database; A motion data extractor for extracting motion data from a BCI-motion mapping database based on the determined label; A hybrid motion generator configured to determine a motion intended by the user based on the first motion data finely adjusted by the real-time motion fine controller and the second motion data extracted by the motion data extractor; A person-robot motion mapping unit for mapping the movement of the user to the movement of the robot based on the motion determined by the hybrid motion generating unit and the information of the robot; And a motion command transmitter for transmitting a motion command.

상기 명령 서버는 사람의 발화 또는 발성에 의한 음성 정보를 수신하여 상기 로봇이 출력할 수 있는 형태로 처리하는 음성 처리부; 및 상기 음성 처리부에 의해 처리된 음성 정보를 상기 로봇으로 전송하는 음성 전송부를 더 포함하는 것이 바람직하다. The command server may include a voice processing unit configured to receive voice information by human speech or speech and process the voice information in a form that the robot can output; And a voice transmitter for transmitting the voice information processed by the voice processor to the robot.

상기 하이브리드 모션 생성부는, 상기 제1 움직임 데이터 또는 상기 제2 움직임 데이터만이 입력되는 경우에는 입력된 상기 제1 움직임 데이터 또는 상기 제2 움직임 데이터만을 사용하고, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 모두 입력되는 경우에는, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 일치하면, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터를 조합하여 더 정밀한 움직임으로 사용하고, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 일치하지 않으면, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 지정하는 두 가지 움직임을 동시에 할 수 있는 경우 두 가지 움직임을 모두 사용하고, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 지정하는 두 가지 움직임을 동시에 할 수 없는 경우 두 가지 움직임 중 미리 정한 우선순위가 높은 움직임을 사용하여 상기 사용자가 의도하는 움직임을 결정할 수 있다.When only the first motion data or the second motion data is input, the hybrid motion generation unit uses only the first motion data or the second motion data input, and the first motion data and the second motion. When all of the data is input, when the first motion data and the second motion data coincide, the first motion data and the second motion data are combined to be used as a more precise motion, and the first motion data and If the second motion data does not match, both motions are used when two motions designated by the first motion data and the second motion data can be simultaneously used, and the first motion data and the second motion are used. Two movements if the two movements specified by the movement data cannot be performed at the same time The predetermined movement of the predetermined high priority may be used to determine the movement intended by the user.

상기 명령 서버는 상기 사용자 별로 서로 다른 BCI-모션 매핑 데이터베이스를 사용할 수 있도록 상기 사용자를 인식하는 사용자 인식부를 더 포함하는 것이 바람직하다.Preferably, the command server further includes a user recognition unit for recognizing the user so as to use a different BCI-motion mapping database for each user.

본 발명의 또 다른 면에 따르면, 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 로봇을 제어하기 위한 움직임 명령을 생성하는 명령 서버에서 뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface)-모션 매핑 데이터베이스와 라벨 판별 모델을 구축하는 학습 서버가 제공되며, 이는 비전 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 비전 데이터 전처리부; 위치 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 위치 데이터 전처리부; 상기 비전 센서 및 위치 센서로부터 비전 데이터 및 위치 데이터를 받아들여 상기 비전 데이터 및 위치 데이터들 사이의 불일치를 해결하고 조절함으로써 정확한 움직임 데이터를 추출하는 움직임 미세 조절부; BCI로부터 수신된 BCI 데이터를 전처리하는 BCI 데이터 전처리부; 상기 움직임 미세 조절부에 의해 추출된 정확한 움직임을 데이터베이스 저장에 적합한 형태로 바꾸는 움직임 데이터 모델링부; 상기 BCI 데이터를 데이터베이스 저장에 적합한 형태로 바꾸는 BCI 데이터 모델링부; 상기 움직임 데이터와 상기 BCI 데이터를 연동하여 BCI-모션 매핑 데이터베이스에 저장하는 BCI-모션 매핑 등록부; 및 상기 BCI-모션 매핑 데이터베이스를 이용하여 어떤 BCI 패턴이 어떤 생각에 해당하는지를 나타내는 라벨을 판별하는 모델을 생성하는 BCI-모션 판별 모델 생성부를 포함한다.According to another aspect of the present invention, a brain-computer interface (BCI) -motion mapping database and a label discrimination model in a command server generating a motion command for controlling a robot in a robot avatar system using a hybrid interface Provided is a learning server for building a vision data pre-processing unit for receiving and pre-processing motion information obtained from the vision sensor; A position data preprocessor configured to receive and preprocess the motion information acquired from the position sensor; A motion fine control unit which receives the vision data and the position data from the vision sensor and the position sensor and extracts accurate motion data by resolving and adjusting the inconsistency between the vision data and the position data; A BCI data preprocessor for preprocessing the BCI data received from the BCI; A motion data modeling unit for converting the exact motion extracted by the motion fine control unit into a form suitable for database storage; A BCI data modeling unit for converting the BCI data into a form suitable for database storage; A BCI-motion mapping registration unit which stores the motion data and the BCI data in a BCI-motion mapping database; And a BCI-motion discrimination model generation unit for generating a model for determining a label indicating which BCI pattern corresponds to which idea using the BCI-motion mapping database.

상기 학습 서버는 사용자 별로 맞춤형으로 상기 라벨을 판별할 수 있도록 상기 사용자의 식별정보를 확인하고 현재 학습중인 상기 사용자의 식별정보를 상기 BCI-모션 매핑 데이터베이스로 전달하는 사용자 인식부를 더 포함할 수 있다. The learning server may further include a user recognizing unit which checks the identification information of the user and transmits the identification information of the user who is currently learning to the BCI-motion mapping database so that the label can be individually determined for each user.

본 발명의 또 다른 면에 따르면, 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 로봇을 통해 획득한 정보를 사람에게 전달하는 지각 서버가 제공되며, 이는 상기 로봇에 포함된 카메라로부터 비디오 데이터를 수신하여 처리하는 비디오 데이터 처리부; 상기 로봇에 포함된 마이크로폰으로부터 오디오 데이터를 수신하여 처리하는 오디오 데이터 처리부; 및 상기 로봇에 포함된 촉각 센서로부터 수신한 촉각 정보를 햅틱 액추에이터를 통해 사람에게 전달하기 위한 형태로 가공하는 촉각 데이터 처리부를 포함한다.According to another aspect of the present invention, there is provided a perception server for transmitting information obtained through a robot to a person in a robot avatar system using a hybrid interface, which receives and processes video data from a camera included in the robot A video data processor; An audio data processor configured to receive and process audio data from a microphone included in the robot; And a tactile data processor configured to process the tactile information received from the tactile sensor included in the robot into a form for transmitting the tactile information to a person through a haptic actuator.

상기 지각 서버는 증강 현실(AR: Augmented Reality) 정보를 저장하는 데이터베이스부를 더 포함하며, 상기 비디오 데이터 처리부 및 상기 오디오 데이터 처리부는 상기 데이터베이스부에 저장되어 있는 증강 현실 정보를 이용하여 상기 비디오 데이터 및 상기 오디오 데이터를 가공할 수 있다.The perception server further includes a database unit for storing Augmented Reality (AR) information, wherein the video data processor and the audio data processor are configured to store the video data and the augmented reality information using the augmented reality information stored in the database unit. Audio data can be processed.

상기 촉각 데이터 처리부는 상기 촉각 정보가 미리 정한 최대값을 넘지 않도록 가공하거나, 사용자가 원하는 방식으로 조절(calibration)된 강도로 가공할 수 있다. The tactile data processor may process the tactile information so that the tactile information does not exceed a predetermined maximum value, or may be processed to a strength adjusted by a user in a desired manner.

본 발명의 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에 의하면, 기본적으로 로봇이 보고 듣고 느끼는 감각을 사람에게 전달하는 것은 물론이고, 하이브리드 인터페이스를 통해 사람이 할 수 있는 거의 모든 행동을 원격지의 휴머노이드에게 전달할 수 있다. 그 결과 의료, 재활, 특수작업, 게임, 군사작전 등 매우 다양한 범위의 응용들에 대해 로봇 아바타 개념을 실현할 수 있다.According to the robot avatar system using the hybrid interface of the present invention, it is possible not only to convey the senses that the robot sees, hears, and feels to a human being, but also to convey almost all the actions that a human can make through a hybrid interface to a humanoid at a remote location. have. As a result, the robot avatar concept can be realized for a wide range of applications, including medical, rehabilitation, special tasks, games, and military operations.

도 1은 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템의 전체 구성을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 명령 서버(command server)의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 명령 서버에서 모션 데이터와 BCI 데이터를 조합하여 모션 명령을 생성하는 과정을 예시한 흐름도이다.
도 4는 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 BCI-모션 학습 서버의 구성을 나타내는 블록도이다.
도 5는 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 지각 서버(sensory server)의 구성을 나타내는 블록도이다.
1 is a view showing the overall configuration of a robot avatar system using a hybrid interface according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a command server used in a robot avatar system using a hybrid interface according to an exemplary embodiment of the present invention.
3 is a flowchart illustrating a process of generating a motion command by combining motion data and BCI data in a command server used in a robot avatar system using a hybrid interface according to an embodiment of the present invention.
4 is a block diagram illustrating a configuration of a BCI-motion learning server used in a robot avatar system using a hybrid interface according to an embodiment of the present invention.
5 is a block diagram illustrating a configuration of a sensory server used in a robot avatar system using a hybrid interface according to an exemplary embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / Or additions.

이하에서, 첨부한 도면을 참고로 하여 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에 대하여 상세히 설명하기로 한다.Hereinafter, a robot avatar system using a hybrid interface according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템의 전체 구성을 나타내는 도면이다.1 is a view showing the overall configuration of a robot avatar system using a hybrid interface according to an embodiment of the present invention.

도 1에 나타난 바와 같이, 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템은 인간의 형태를 모습으로 한 로봇인 휴머노이드(60)를 제어하고자 하는 것으로서, 사람(10)과 휴머노이드(60) 사이를 매개하는 하이브리드 인터페이스(110, 120, 130, 140, 150, 160), 하이브리드 인터페이스(110, 120, 130, 140, 150, 160)를 통해 얻어진 사람(10)의 행동을 휴머노이드(60)를 제어하기 위한 명령으로 구성하여 전달하는 명령 서버(200) 및 명령 서버(200)에서 사용할 BCI-모션 매핑 데이터를 생성하는 학습 서버(400), 휴머노이드(60)를 통해 지각한 정보를 재구성하여 사람(10)에게 전달하는 지각 서버(500)를 포함한다.As shown in FIG. 1, a robot avatar system using a hybrid interface according to an exemplary embodiment of the present invention intends to control a humanoid 60, which is a robot in the form of a human, and has a human 10 and a humanoid 60. The human interface (60) shows the behavior of the person (10) obtained through the hybrid interface (110, 120, 130, 140, 150, 160) and the hybrid interface (110, 120, 130, 140, 150, 160). By reconfiguring the information perceived through the learning server 400, the humanoid 60 to generate the BCI-motion mapping data to be used by the command server 200 and the command server 200 to configure and deliver the command to control the It includes the perception server 500 to deliver to (10).

하이브리드 인터페이스는, 뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface)(110), 헤드 마운트 디스플레이(HMD: Head-Mounted Display) 또는 스마트 안경(Smart Glasses)(120), 비전 센서(vision sensor)(130), 마이크로폰(microphone)(140), 햅틱 액추에이터(haptic actuator)(150), 위치 센서(160), 스피커(도시하지 않음)를 포함한다. 비전 센서(130), 마이크로폰(140), 햅틱 액추에이터(150), 위치 센서(160)는 두 개 이상 사용될 수도 있다.The hybrid interface includes a brain computer interface (BCI) 110, a head-mounted display (HMD) or smart glasses 120, a vision sensor 130. , A microphone 140, a haptic actuator 150, a position sensor 160, and a speaker (not shown). Two or more of the vision sensor 130, the microphone 140, the haptic actuator 150, and the position sensor 160 may be used.

뇌-컴퓨터 인터페이스(110)는 뇌의 활동을 분석하여 사람(10)의 의도를 예측하는 장치로서, 뇌파 자극을 인식하는 장치를 통해 뇌파를 받아들인 후, 이를 부호화하여 명령 서버(200)로 전달한다. 뇌-컴퓨터 인터페이스(110)는 별도의 장치로 사용되거나, 헤드 마운트 디스플레이(120)와 일체형으로 구성될 수 있다. 뇌-컴퓨터 인터페이스(110)를 사용할 경우, 시각 등의 감각이나 신체 행동이 온전하지 못한 경우에도 사람(10)의 의사에 따라 휴머노이드(60)를 조정할 수 있다.The brain-computer interface 110 analyzes the activity of the brain and predicts the intention of the person 10. The brain-computer interface 110 receives brain waves through a device that recognizes brain wave stimuli, encodes them, and transfers them to the command server 200. do. The brain-computer interface 110 may be used as a separate device or may be integrated with the head mounted display 120. When the brain-computer interface 110 is used, the humanoid 60 may be adjusted according to the intention of the person 10 even when the sensory or physical behavior such as vision is incomplete.

헤드 마운트 디스플레이(120)는 사람(10)이 머리에 장착하거나 헬멧 형태로 쓸 수 있게 된 표시장치로서, 휴머노이드(60)로부터 지각한 영상 데이터를 사람(10)이 보는 것과 같이 표시한다. The head mounted display 120 is a display device in which the person 10 can be mounted on the head or in the form of a helmet, and displays image data perceived by the humanoid 60 as the person 10 sees.

또한 도면상에 도시하지는 않았지만, 휴머노이드(60)로부터 지각한 음성 데이터를 사람(10)이 듣는 것과 같이 출력하기 위한 스피커가 포함되며, 스피커는 헤드 마운트 디스플레이(120) 내에 포함되도록 구현될 수도 있다. In addition, although not shown in the drawings, a speaker for outputting the voice data perceived from the humanoid 60 as a person 10 is included, the speaker may be implemented to be included in the head mounted display 120.

비전 센서(130)와 위치 센서(160)는 사람(10)의 움직임을 인식하기 위한 비전 정보와 위치 정보를 명령 서버(200)로 전달한다. 휴머노이드(60)는 사람(10)의 움직임을 모방하도록 되어 있으므로 사람(10)의 움직임을 정확히 인식하기 위하여 다양한 센서가 사용될 수 있다. 위치 센서(160)는 데이터글로브와 같이 몸에 착용하거나 부착하여 몸의 각 부위의 위치를 측정하는 센서를 의미하며, 위치 센서(160) 대신 모션 센서를 사용하거나 모션 센서와 위치 센서 두 가지 모두를 사용할 수도 있다. The vision sensor 130 and the location sensor 160 transmit vision information and location information for recognizing the movement of the person 10 to the command server 200. Since the humanoid 60 is designed to mimic the movement of the person 10, various sensors may be used to accurately recognize the movement of the person 10. The position sensor 160 refers to a sensor that measures the position of each part of the body by wearing or attaching to the body, such as a data globe, and using a motion sensor instead of the position sensor 160 or using both a motion sensor and a position sensor. Can also be used.

마이크로폰(140)은 사람의 음성을 입력받아 음성 데이터를 명령 서버(200)로 전달한다. 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서는, 휴머노이드(60)가 사람(10)의 행동뿐 아니라, 발화 또는 발성을 모방한다. The microphone 140 receives a human voice and transmits the voice data to the command server 200. In the robot avatar system using the hybrid interface according to the embodiment of the present invention, the humanoid 60 mimics not only the action of the person 10 but also speech or utterance.

한편, 마이크로폰(140)은 헤드 마운트 디스플레이(120)와 일체형으로 구현될수도 있다. On the other hand, the microphone 140 may be implemented integrally with the head mounted display 120.

햅틱 엑추에이터(150)는 휴머노이드(60)가 지각한 촉각 정보를 사람(10)이 인식하기 위한 것으로, 두 개 이상 사용될 수 있으며, 사람(10)의 필요한 신체 부위에 장착될 수 있다.The haptic actuator 150 is used by the person 10 to recognize the tactile information perceived by the humanoid 60, and may be used more than two, and may be mounted on a required body part of the person 10.

본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서는 하이브리드 인터페이스를 통해 인식된 사람(10)의 행동 관련 정보가 명령 서버(200)로 전달된다. 더 구체적으로 말하자면, 뇌-컴퓨터 인터페이스(110)를 통해 인식된 뇌파 정보, 비전 센서(130)를 통해 획득된 비전 정보, 위치 센서(160)에 의해 획득된 위치 정보, 마이크로폰(140)을 통해 입력된 음성 정보가 명령 서버(200)로 전달된다.In the robot avatar system using the hybrid interface according to the exemplary embodiment of the present invention, the behavior related information of the person 10 recognized through the hybrid interface is transmitted to the command server 200. More specifically, brain wave information recognized through the brain-computer interface 110, vision information obtained through the vision sensor 130, position information acquired by the position sensor 160, and input through the microphone 140. Voice information is transmitted to the command server 200.

또한, BCI-모션 학습 서버(400)는 뇌-컴퓨터 인터페이스(110)를 통해 인식된 뇌파 정보를 바탕으로 사용자가 원하는 모션 명령을 생성하기 위하여, 명령 서버(200)에서 사용되는 BCI-모션 매핑 데이터베이스 및 라벨 판별 모델을 구축한다.In addition, the BCI-motion learning server 400 is a BCI-motion mapping database used in the command server 200 to generate a desired motion command based on the brain wave information recognized through the brain-computer interface 110. And a label discrimination model.

명령 서버(200)는 하이브리드 인터페이스를 통해 전달된 정보와 BCI-모션 학습 서버(400)에 의해 구축된 정보를 이용하여 휴머노이드(60)를 제어하기 위한 정보, 즉 모션 명령과 음성을 생성하고 이를 휴머노이드(60)로 전달한다.The command server 200 generates information for controlling the humanoid 60 using information transmitted through the hybrid interface and information constructed by the BCI-motion learning server 400, that is, motion command and voice, and generates the humanoid. Forward to 60.

도 2는 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 명령 서버(command server)의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of a command server used in a robot avatar system using a hybrid interface according to an exemplary embodiment of the present invention.

도 2에 나타난 바와 같이, 명령 서버(200)는 비전 데이터 전처리부(210), 위치 데이터 전처리부(212), 실시간 모션 미세 조절부(214), BCI 데이터 전처리부(230), 실시간 BCI 라벨 판별부(232), 사용자 인식부(236), BCI-모션 매핑 데이터베이스(238), 모션 데이터 인출부(234), 하이브리드 모션 생성부(216), 휴먼-로봇 모션 매핑부(218), 모션 전송부(220), 음성 데이터 처리부(240), 음성 전송부(242)를 포함한다.As shown in FIG. 2, the command server 200 determines a vision data preprocessor 210, a position data preprocessor 212, a real time motion fine control unit 214, a BCI data preprocessor 230, and a real time BCI label determination. Unit 232, user recognition unit 236, BCI-motion mapping database 238, motion data extraction unit 234, hybrid motion generation unit 216, human-robot motion mapping unit 218, motion transmitter 220, a voice data processor 240, and a voice transmitter 242.

비전 데이터 전처리부(210)와 위치 데이터 전처리부(212)는 각각 비전 센서(130)와 위치 센서(160)로부터 전달받은 미가공 데이터(raw data)를 가공하여 실시간 모션 미세 조절부(214)로 전달한다. 실시간 모션 미세 조절부(214)는 여러 센서들로부터의 비전 데이터 및 위치 데이터를 받아들여 센서 데이터들 간의 불일치 등을 해결하고 조절함으로써 정확한 움직임 데이터를 실시간으로 추출한다. The vision data preprocessor 210 and the position data preprocessor 212 process raw data received from the vision sensor 130 and the position sensor 160, respectively, and deliver the raw data to the real-time motion fine control unit 214. do. The real-time motion fine control unit 214 extracts accurate motion data in real time by receiving vision data and position data from various sensors to solve and adjust inconsistencies among the sensor data.

BCI 데이터 전처리부(230)는 BCI 장치(110)로부터 전달받은 미가공 BCI 데이터를 가공하여 실시간 BCI 라벨 판별부(232)로 전달한다. 실시간 BCI 라벨 판별부(232)는 전처리된 BCI 데이터를 데이터베이스 저장된 판별 모델을 이용하여 실시간으로 분석함으로써 사람이 현재 어떤 종류의 움직임을 생각하는 것인지 그 라벨을 판별한다. 이와 같이 판별된 라벨을 가지고 모션 데이터 인출부(234)는 BCI-모션 매핑 데이터베이스(238)로부터 해당 움직임 데이터를 인출해낸다.The BCI data preprocessor 230 processes the raw BCI data received from the BCI device 110 and transmits the raw BCI data to the real-time BCI label determination unit 232. The real-time BCI label determination unit 232 analyzes the pre-processed BCI data in real time using a database stored discrimination model to determine the label of what kind of movement a person currently thinks. With the label determined as such, the motion data extractor 234 extracts the corresponding motion data from the BCI-motion mapping database 238.

이제, 실시간 모션 미세 조절부(214)에 의해 미세 조절된 사람의 움직임 데이터와 머릿속으로 떠올리고 있는 움직임 데이터를 받아들여서 하이브리드 모션 생성부(216)는 사람이 의도하는 움직임을 최종적으로 결정한다. Now, by receiving the motion data of the person finely adjusted by the real-time motion fine control unit 214 and the motion data that is reflected in the head, the hybrid motion generation unit 216 finally determines the motion intended by the person.

이와 같이 결정된 움직임과 로봇의 정보를 받아들여 사람-로봇 모션 매핑부(218)에서 사람의 움직임을 로봇의 움직임으로 매핑하고, 매핑된 모션을 모션 전송부(220)에 의해 휴머노이드(60)로 전송한다. The human-robot motion mapping unit 218 maps the motion of the person to the motion of the robot by receiving the determined motion and the information of the robot, and transmits the mapped motion to the humanoid 60 by the motion transmitter 220. do.

명령 서버(200)는 또한, 사람마다 서로 다른 BCI-모션 매핑 데이터베이스(238)를 사용할 수 있도록 사용자를 인식하는 사용자 인식부(236)를 포함한다.The command server 200 also includes a user recognizer 236 that recognizes the user so that each person can use a different BCI-motion mapping database 238.

한편, 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서는, 사람의 음성은 휴머노이드(60)의 행동을 제어하는 명령을 생성하기 위하여 사용되는 것이 아니며, 휴머노이드(60)가 사람의 발화 또는 발성을 그대로 모방한다. 이에 따라 음성 정보 처리부(240)는 마이크로폰(140)으로 입력된 사람(10)의 음성 정보를 수신하여 휴머노이드(60)가 출력할 수 있도록 처리하고, 음성 전송부(260)는 처리된 음성 정보를 휴머노이드(60)로 전송한다. On the other hand, in the robot avatar system using the hybrid interface according to an embodiment of the present invention, the human voice is not used to generate a command for controlling the behavior of the humanoid 60, the humanoid 60 is spoken by the human Or mimics speech. Accordingly, the voice information processor 240 receives voice information of the person 10 input through the microphone 140 and processes the humanoid 60 to output the voice information. The voice transmitter 260 processes the processed voice information. Transmit to humanoid (60).

본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서는 사람(10)의 움직임을 휴머노이드(60)가 그대로 모방하도록 하는 것이므로, 휴머노이드(60)의 움직임과 관련된 명령을 기본적으로 비전 센서(130) 및 위치 센서(160)를 통해 획득된 움직임 정보를 기반으로 생성하고, BCI 정보를 이를 보강하기 위한 정보로 사용할 수 있다. 그러나, 신체의 장애 등으로 감각이나 신체 행동이 온전하지 못한 경우에는 모션 센서(130)에 의한 정보로는 사람(10)의 의사를 충분히 반영할 수 없게 되며, 이 경우 BCI 정보가 주로 사용될 수도 있다. In the robot avatar system using the hybrid interface according to the embodiment of the present invention, since the humanoid 60 mimics the movement of the person 10 as it is, the vision sensor 130 basically receives a command related to the movement of the humanoid 60. And based on the motion information acquired through the position sensor 160, the BCI information can be used as information for reinforcing it. However, if the sensory or physical behavior is not intact due to a disorder of the body, the information by the motion sensor 130 may not sufficiently reflect the intention of the person 10, and in this case, BCI information may be mainly used. .

즉, 하이브리드 모션 생성부(216)는 미리 설정된 우선순위에 따라 상기 실시간 모션 미세 조절부(214)와 모션 데이터 인출부(234)에 의해 도출된 정보를 조합하거나, 그밖에 다양한 방식으로 정보를 조합하여 사용할 수 있다. That is, the hybrid motion generator 216 combines the information derived by the real-time motion fine control unit 214 and the motion data extractor 234 according to a preset priority, or by combining the information in various other ways. Can be used.

예를 들면, 하이브리드 모션 생성부(216)는 (1) 생각 없이 움직임만 할 경우 움직임 데이터만 사용하고, (2) 움직임 없이 생각만 할 경우 데이터베이스로부터 해당 움직임 데이터를 인출하여 사용하며, (3) 생각과 동시에 움직임을 할 경우 (3-1) 두 가지가 일치한다면 두 가지 데이터를 조합하여 더 정밀한 움직임으로 사용하거나, (3-2) 두 가지가 불일치한다면 두 가지 움직임을 동시에 할 수 있도록 움직임 데이터를 합쳐서 사용하는 방식으로 작동할 수 있다. 이때, 어떤 생각을 하더라도 그 생각이 이전에 학습 서버를 통해 데이터베이스에 등록된 생각이어야만 유효한 생각으로서 인지가 되고, 그렇지 않으면 생각을 하지 않는 것으로 인지된다. (3-2)의 예로는 팔을 흔드는 동작을 하면서 머릿속으로는 뛰는 생각을 할 경우, 로봇 아바타에게는 팔을 흔들면서 뛰는 움직임이 전달된다. 또한, (3-2)의 경우 두 가지 움직임이 동시에 할 수 없는 종류의 동작이라면 사용자가 지정해 놓은 우선 순위에 따라 한 가지 종류의 움직임만 사용된다. 예를 들어 팔을 들어올리는 움직임을 하면서 팔을 내리는 생각을 한다면 둘 중 한 가지의 움직임만 사용된다. 그러나, 실제로 사람이 머릿속에서 생각하는 동작과 반대되는 동작을 취하는 것은 어렵거나 드물기 때문에 이와 같은 경우는 자주 발생하지 않을 것으로 생각된다. For example, the hybrid motion generation unit 216 (1) uses only motion data when there is no motion, and (2) uses only motion data from the database when thinking without motion, and (3) When moving simultaneously with thoughts (3-1) If the two match, combine the two data for more precise movement, or (3-2) If the two do not match, move the data Can work by combining At this time, no matter what thought it is, it must be recognized as a valid thought before it is registered in the database through the learning server, otherwise it is recognized as not thinking. In the example of (3-2), if the user thinks of jumping in the head while shaking the arm, the robot avatar is transmitted by shaking the arm. In addition, in the case of (3-2), if two kinds of movements cannot be performed at the same time, only one kind of movement is used according to the priority designated by the user. For example, if you are thinking about lowering your arm while raising your arm, only one of them will be used. However, this is unlikely to occur very often because it is difficult or rare to actually do the opposite of what humans think.

도 3은 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 명령 서버에서 모션 데이터와 BCI 데이터를 조합하여 모션 명령을 생성하는 과정을 예시한 흐름도이다.3 is a flowchart illustrating a process of generating a motion command by combining motion data and BCI data in a command server used in a robot avatar system using a hybrid interface according to an embodiment of the present invention.

도 3에 나타난 바와 같이, 먼저 모션 데이터만 입력되는 경우에는(S310의 "예") 모션 데이터를 그대로 출력하고(S320), 반대로 BCI 데이터만 입력되는 경우에는(S330의 "예") 해당 BCI 데이터를 이용하여 데이터베이스로부터 인출된 모션 데이터를 그대로 출력하면 된다(S340).As shown in FIG. 3, when only motion data is input first (YES in S310), the motion data is output as it is (S320), and conversely, when only BCI data is input (YES in S330), the corresponding BCI data is used. The motion data extracted from the database may be output as it is (S340).

두 가지 데이터가 모두 입력되는 경우에는(S330의 "아니오"), 두 가지 데이터가 범위 값 내에서 일치하는지의 여부를 판단한다(S350). 두 가지 데이터가 범위 값 내에서 일치하는 경우에는(S350의 "예") 두 가지 데이터를 같이 사용하여 보다 정확한 모션 데이터를 생성할 수 있다(S360).If both data are input (NO in S330), it is determined whether the two data match within a range value (S350). When the two data coincide within the range value (YES in S350), the two pieces of data may be used together to generate more accurate motion data (S360).

두 가지 데이터가 범위 값 내에서 일치하지 않는 경우에는(S350의 "아니오") 두 가지 모션을 동시에 할 수 있는지를 판단한다(S370). If the two data do not match within the range value (NO in S350), it is determined whether two motions can be performed simultaneously (S370).

두 가지 모션을 동시에 할 수 있는 경우에는(S370의 "예") 두 가지 모션을 합친 모션 데이터를 생성하고(S380), 두 가지 모션을 동시에 할 수 없는 경우에는(S370의 "아니오") 미리 정한 우선 순위에 따라 두 가지 모션 중 하나의 모션 데이터만을 출력한다(S390).If two motions can be performed simultaneously (Yes in S370), motion data combining the two motions is generated (S380). If two motions cannot be performed simultaneously (No in S370), Only motion data of one of the two motions is output according to the priority (S390).

한편, BCI-모션 학습 서버(400)는 뇌-컴퓨터 인터페이스(110)를 통해 인식된 뇌파 정보를 바탕으로 사용자가 원하는 모션 명령을 생성하기 위하여, 명령 서버(200)에서 사용되는 BCI-모션 매핑 데이터베이스 및 라벨 판별 모델을 구축한다.Meanwhile, the BCI-motion learning server 400 is a BCI-motion mapping database used by the command server 200 to generate a desired motion command based on the brain wave information recognized through the brain-computer interface 110. And a label discrimination model.

도 4는 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 BCI-모션 학습 서버의 구성을 나타내는 블록도이다.4 is a block diagram illustrating a configuration of a BCI-motion learning server used in a robot avatar system using a hybrid interface according to an embodiment of the present invention.

도 4에 나타난 바와 같이, BCI-모션 학습 서버(400)는 비전 데이터 전처리부(410), 위치 데이터 전처리부(412), 모션 미세 조절부(414), 모션 데이터 모델링부(420), BCI 데이터 전처리부(430), BCI 데이터 모델링부(432), BCI-모션 매핑 등록부(434), BCI-모션 매핑 데이터베이스(438), BCI-모션 판별 모델 생성부(440), 사용자 인식부(436)를 포함한다.As shown in FIG. 4, the BCI-motion learning server 400 includes a vision data preprocessor 410, a position data preprocessor 412, a motion fine controller 414, a motion data modeling unit 420, and BCI data. The preprocessor 430, the BCI data modeling unit 432, the BCI-motion mapping registration unit 434, the BCI-motion mapping database 438, the BCI-motion determination model generation unit 440, and the user recognition unit 436. Include.

비전 데이터 전처리부(410)와 위치 데이터 전처리부(412)는 각각 비전 센서(130)와 위치 센서(160)로부터 전달받은 미가공 데이터(raw data)를 가공하여 모션 미세 조절부(414)로 전달한다. 모션 미세 조절부(414)는 여러 센서들로부터의 비전 데이터 및 위치 데이터를 받아들여 센서 데이터들 간의 불일치 등을 해결하고 조절함으로써 정확한 움직임 데이터를 추출하여 모션 데이터 모델링부(420)로 전달하며, 모션 데이터 모델링부(420)는 미세하고 정확한 움직임을 데이터베이스 저장에 적합한 형태로 바꾸어 BCI-모션 매핑 등록부(434)로 전달한다.The vision data preprocessor 410 and the position data preprocessor 412 process the raw data received from the vision sensor 130 and the position sensor 160, respectively, and deliver the raw data to the motion fine control unit 414. . The motion fine control unit 414 receives vision data and position data from various sensors, resolves and adjusts inconsistencies among the sensor data, and extracts and transmits the correct motion data to the motion data modeling unit 420, and the motion The data modeling unit 420 converts the fine and accurate movement into a form suitable for database storage and transmits the same to the BCI-motion mapping registration unit 434.

BCI 데이터 전처리부(430)는 BCI 장치(110)로부터 전달받은 미가공 BCI 데이터를 가공하여 BCI 데이터 모델링부(432)로 전달하고, BCI 데이터 모델링부(432)는 BCI 데이터를 데이터베이스 저장에 적합한 형태로 바꾸고, BCI-모션 매핑 등록부(434)는 모션 데이터 모델링부(420)로부터 전달받은 움직임 데이터와 BCI 데이터를 연동하여 BCI-모션 매핑 데이터베이스(438)에 저장한다. BCI-모션 판별 모델 생성부(440)는 구축된 BCI-모션 매핑 데이터베이스(438)를 가지고 어떤 BCI 패턴이 어떤 생각인지 라벨을 판별할 수 있도록 판별 모델(classifier)을 생성한다.The BCI data preprocessor 430 processes the raw BCI data received from the BCI device 110 and delivers the processed BCI data to the BCI data modeling unit 432, and the BCI data modeling unit 432 is configured to transfer the BCI data into a database suitable for storage. In addition, the BCI-motion mapping registration unit 434 stores the motion data received from the motion data modeling unit 420 and the BCI data in the BCI-motion mapping database 438. The BCI-motion discrimination model generation unit 440 generates a discrimination model (classifier) so that the BCI-motion mapping database 438 may be used to determine which BCI pattern is a label.

또한, 사용자 인식부(436)는 이러한 라벨 판별을 사람마다 맞춤형으로 수행할 수 있도록 사용자 ID를 확인하고 현재 학습중인 사람의 ID를 데이터베이스에 전달한다. In addition, the user recognition unit 436 checks the user ID and transmits the ID of the person currently learning to the database so that such labeling can be customized for each person.

본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 BCI-모션 학습 서버의 고유한 특징은 이론적으로 무한대의 가지 수를 갖는 BCI 데이터를 판별할 수 있는 기능을 제공하는 것이다. 이러한 기능은 사람이 취할 수 있는 움직임의 가지 수가 무한대이기 때문에 로봇 아바타 플랫폼을 구현할 때 매우 유용하고 중요한 기능이다. 기존의 supervised learning 또는 classification 방법들을 사용할 경우에는 학습하려는 BCI 데이터 각각에 대해 사람이 직접 class label(예: 걷기 동작)을 지정해 주고, 그렇게 준비된 <데이터, label>쌍들의 집합을 대상으로 분류 모델을 구축한다. 그리고, 실제 운용 시 새로운 BCI 데이터가 들어왔을 때, 어떤 class label에 속하는지를 판별하고, 해당 label에 속하는 움직임을 명령으로 전송하게 된다. A unique feature of the BCI-motion learning server used in a robot avatar system using a hybrid interface according to an embodiment of the present invention is to theoretically provide a function for discriminating BCI data having an infinite number of branches. This feature is very useful and important when implementing the robot avatar platform because the number of motions that a person can take is infinite. When using the existing supervised learning or classification methods, a person specifies a class label (eg, a walking motion) for each BCI data to be learned, and builds a classification model based on the set of <data, label> pairs thus prepared. do. Then, when new BCI data is input during actual operation, it is determined which class label belongs to, and a movement belonging to the corresponding label is transmitted as a command.

그러나, 이러한 기존의 방법들은 특정 class label(예: 걷기 동작)에 대해 구체적으로 걷기 동작을 어떻게 취할지를 개인이 결정할 수 없다는 문제점을 가지고 있다. 그러나, 본 발명의 실시예에 따른 학습 서버의 경우, 사람이 어떤 동작을 떠올리는 생각을 하면서 그 동작을 취하면, 동작 데이터 자체가 class label로 간주되어 생각에 해당하는 BCI 데이터와 함께 데이터베이스에 저장되는 것을 가정한다. 따라서, class label의 가지 수에 대해 제한이 없고, 개인별로 서로 다른 동작을 class label로 저장할 수 있다. 그렇게 데이터베이스에 저장된 <데이터, label>쌍들의 집합을 대상으로 BCI-모션 판별 모델 생성부에서 분류 모델을 구축하면, 실제 명령 서버를 운용할 때, 새로운 BCI 데이터가 들어왔을 때마다 해당하는 class label을 판별해서, 개인별로 등록했던 해당 움직임을 명령으로 전송하게 된다.However, these existing methods have a problem in that an individual cannot determine how to take a walking motion specifically for a specific class label (eg, a walking motion). However, in the case of a learning server according to an embodiment of the present invention, when a person takes an action while thinking about an action, the action data itself is regarded as a class label and stored in a database along with the BCI data corresponding to the idea. Assume that Therefore, there is no limit on the number of kinds of class labels, and different operations may be stored as class labels for each individual. If you build a classification model in the BCI-Motion Discrimination Model Generator for a set of <data, label> pairs stored in the database, each time a new BCI data is entered when operating the command server, It discriminates and transmits the motion registered by each person by a command.

본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 로봇은 인간과 같은 인식 기능과 운동 기능을 구현한 로봇인 휴머노이드인 것이 바람직하다. The robot used in the robot avatar system using the hybrid interface according to the embodiment of the present invention is preferably a humanoid that is a robot that implements a recognition function and a movement function such as a human.

휴머노이드(60)는 명령 서버(200)로부터 전달된 정보를 기반으로 사람(10)의 행동을 그대로 모방하며, 휴머노이드(60)를 통해 지각된 정보는 다시 사람(10)에게 전달된다. 이를 위하여 휴머노이드(60)는 영상을 인식하기 위한 카메라(610), 오디오 정보를 인식하기 위한 마이크로폰(620), 발성 및 발화를 위한 스피커(640), 촉각 정보를 인식하기 위한 촉각 센서(tactile sensor)(650) 등을 구비하고 있으며, 이족 보행을 비롯한 사람(10)의 구체적인 관절의 움직임을 모방할 수 있는 것이 바람직하다.The humanoid 60 mimics the behavior of the person 10 based on the information transmitted from the command server 200, and the information perceived through the humanoid 60 is transmitted to the person 10 again. To this end, the humanoid 60 includes a camera 610 for recognizing an image, a microphone 620 for recognizing audio information, a speaker 640 for speech and speech, and a tactile sensor for recognizing tactile information. 650 and the like, it is desirable to be able to mimic the movement of specific joints of the person 10 including bipedal walking.

그러나, 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 로봇이 반드시 휴머노이드여야 하는 것은 아니며, 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템의 기능과 구성을 적절히 조정하여 바퀴 이동 로봇과 같은 형태의 로봇을 조정하기 위한 시스템으로 사용될 수도 있다. However, the robot used in the robot avatar system using the hybrid interface according to the embodiment of the present invention does not necessarily have to be a humanoid, and the function and configuration of the robot avatar system using the hybrid interface according to the embodiment of the present invention may be properly adjusted. It can also be used as a system for adjusting a robot of a type, such as a wheel moving robot.

휴머노이드(60)에 인식된 지각 정보(raw sensory data)는 지각 서버(500)로 전달된다. Perception information (raw sensory data) recognized by the humanoid 60 is transmitted to the perception server 500.

도 5는 본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 사용되는 지각 서버(sensory server)의 구성을 나타내는 블록도이다.5 is a block diagram illustrating a configuration of a sensory server used in a robot avatar system using a hybrid interface according to an exemplary embodiment of the present invention.

도 5에 나타난 바와 같이, 지각 서버(500)는 비디오 데이터 처리부(510), 오디오 데이터 처리부(520), 촉각 데이터 처리부(550)를 포함하며, 필요에 따라서는 획득한 정보에 덧붙여 부가적인 정보를 제공하기 위한 증강 현실(AR: Augmented Reality) 정보를 저장하는 AR 데이터베이스(530)를 더 포함할 수도 있다.As shown in FIG. 5, the perceptual server 500 includes a video data processor 510, an audio data processor 520, and a tactile data processor 550. If necessary, additional information may be added to the acquired information. It may further include an AR database 530 that stores Augmented Reality (AR) information for providing.

비디오 데이터 처리부(510)는 휴머노이드(60)에 포함된 카메라(610)로부터 가공되지 않은(raw) 비디오 데이터를 수신하고, 오디오 데이터 처리부(520)는 휴머노이드(60)에 포함된 마이크로폰(620)으로부터 가공되지 않은 오디오 데이터를 수신하여, 데이터 처리를 수행하고, 이를 각각 사람(10)의 헤드 마운트 디스플레이(120)나 스마트 안경으로 전송한다. 이때, AR 데이터베이스(530)에 저장된 증강 현실 정보를 이용하여 AV 데이터를 가공할 수도 있다.The video data processor 510 receives raw video data from the camera 610 included in the humanoid 60, and the audio data processor 520 from the microphone 620 included in the humanoid 60. Receive raw audio data, perform data processing, and transmit it to the head mounted display 120 or smart glasses of the person 10, respectively. In this case, AV data may be processed using the augmented reality information stored in the AR database 530.

촉각 데이터 처리부(550)는 휴머노이드에 포함된 촉각 센서(650)로부터 수신한 촉각 정보를 햅틱 액추에이터(150)를 통해 사람(10)에게 전달하기 위한 형태로 가공한다. 촉각 데이터 처리부(550)에서는 신호 처리 이외에도, 휴머노이드와 사람이 다른 특성을 갖는 점을 고려하여 충격의 최대 범위를 제한하거나 사용자가 원하는 방식으로 조절(calibration)된 강도로 맞추는 등과 같이 촉각 데이터를 가공할 수도 있다. The tactile data processor 550 processes the tactile information received from the tactile sensor 650 included in the humanoid into a form for delivering the tactile information to the person 10 through the haptic actuator 150. In addition to signal processing, in addition to signal processing, the tactile data processor 550 may process tactile data such as limiting the maximum range of the impact or adjusting the intensity to a calibrated intensity in a manner desired by the user in consideration of different characteristics of the humanoid and the human. It may be.

본 발명의 실시예에 따른 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서는 사람(10)이 원격지에서 휴머노이드(60)를 조정할 수 있다. In the robot avatar system using the hybrid interface according to the embodiment of the present invention, the person 10 may control the humanoid 60 at a remote location.

이를 위하여 사람(10), 명령 서버(200) 및 학습 서버(400), 휴머노이드(60), 지각 서버(500) 간의 연결은 무선 통신 방식을 사용할 수 있으며, 통신 방식에 특별한 제한은 없다. 물론, 필요에 따라서는 특정 연결을 유선 통신 방식으로 구현하는 것도 가능하다.To this end, the connection between the person 10, the command server 200, the learning server 400, the humanoid 60, and the perception server 500 may use a wireless communication method, and there is no particular limitation on the communication method. Of course, it is also possible to implement a specific connection via wired communication, if necessary.

이상에서 바람직한 실시예를 기준으로 본 발명을 설명하였지만, 본 발명의 장치 및 방법은 반드시 상술된 실시예에 제한되는 것은 아니며 발명의 요지와 범위로부터 벗어남이 없이 다양한 수정이나 변형을 하는 것이 가능하다. 따라서, 첨부된 특허청구의 범위는 본 발명의 요지에 속하는 한 이러한 수정이나 변형을 포함할 것이다. While the invention has been described in terms of the preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention. Accordingly, the appended claims are intended to embrace all such modifications and variations as fall within the true spirit of the invention.

Claims (12)

하이브리드 인터페이스를 사용하는 로봇 아바타 시스템으로서,
뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface), 헤드 마운트 디스플레이(HMD: Head-Mounted Display) 또는 스마트 안경(Smart Glasses), 모션 센서(motion sensor) 또는 위치 센서, 마이크로폰(microphone), 스피커, 촉각 센서, 햅틱 액추에이터(haptic actuator)를 포함하는 인터페이스;
상기 BCI 및 상기 모션 센서 또는 위치 센서로부터 수신한 BCI 정보 및 움직임 정보를 기반으로 상기 로봇의 행동을 제어하기 위한 명령을 생성하며, 상기 마이크로폰으로부터 수신한 사람의 음성 정보를 상기 로봇을 통해 출력하도록 전달하는 명령 서버;
상기 BCI 및 상기 모션 센서 또는 위치 센서로부터 수신한 BCI 정보 및 움직임 정보를 기반으로 상기 명령 서버에서 사용되는 BCI-모션 매핑 데이터베이스 및 라벨 판별 모델을 구축하는 BCI-모션 학습 서버; 및
상기 로봇을 통해 획득한 오디오, 비디오, 촉각 정보를 각각 상기 스피커, HMD 또는 스마트 안경, 햅틱 엑추에이터를 통해 출력할 수 있도록 가공하는 지각 서버
를 포함하는 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템.
A robot avatar system using a hybrid interface,
Brain Computer Interface (BCI), Head-Mounted Display (HMD) or Smart Glasses, Motion Sensor or Position Sensor, Microphone, Speaker, Tactile Sensor An interface comprising a haptic actuator;
Generate a command for controlling the behavior of the robot based on the BCI and the BCI information and motion information received from the motion sensor or position sensor, and delivers the voice information of the person received from the microphone through the robot A command server;
A BCI-motion learning server for constructing a BCI-motion mapping database and a label discrimination model used in the command server based on the BCI and BCI information and motion information received from the motion sensor or position sensor; And
Perceptual server that processes the audio, video, and tactile information obtained through the robot to output through the speaker, HMD or smart glasses, haptic actuator, respectively
Robot avatar system using a hybrid interface comprising a.
제1항에 있어서,
상기 마이크로폰과 상기 스피커는 상기 HMD 또는 상기 스마트 안경과 일체형으로 형성된 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템.
The method of claim 1,
The microphone and the speaker is a robot avatar system using a hybrid interface formed integrally with the HMD or the smart glasses.
제1항에 있어서,
상기 BCI는 상기 HMD 또는 상기 스마트 안경과 일체형으로 형성된 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템.
The method of claim 1,
The BCI robot avatar system using a hybrid interface formed integrally with the HMD or the smart glasses.
하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 로봇을 제어하기 위한 명령을 생성하는 명령 서버로서,
비전 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 비전 데이터 전처리부;
위치 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 위치 데이터 전처리부;
상기 비전 센서 및 위치 센서로부터 비전 데이터 및 위치 데이터를 받아들여 상기 비전 데이터 및 위치 데이터들 사이의 불일치를 해결하고 조절함으로써 정확한 움직임 데이터를 실시간으로 추출하는 실시간 움직임 미세 조절부;
뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface)로부터 수신된 BCI 정보를 전처리하는 BCI 데이터 전처리부;
전처리된 BCI 데이터를 데이터베이스에 저장된 판별 모델을 이용하여 실시간으로 분석함으로써 사용자가 현재 어떤 종류의 움직임을 생각하는 것인지를 나타내는 라벨을 판별하는 실시간 BCI 라벨 판별부;
판별된 상기 라벨을 기반으로 BCI-모션 매핑 데이터베이스로부터 움직임 데이터를 인출하는 움직임 데이터 인출부;
상기 실시간 움직임 미세 조절부에 의해 미세 조절된 제1 움직임 데이터와 상기 움직임 데이터 인출부에 의해 인출된 제2 움직임 데이터를 기반으로 상기 사용자가 의도하는 움직임을 결정하는 하이브리드 모션 생성부;
상기 하이브리드 모션 생성부에 의해 결정된 움직임과 상기 로봇의 정보를 기반으로 상기 사용자의 움직임을 로봇의 움직임으로 매핑하는 사람-로봇 움직임 매핑부; 및
움직임 명령을 전송하는 움직임 명령 전송부
를 포함하는 명령 서버.
A command server for generating a command for controlling a robot in a robot avatar system using a hybrid interface,
A vision data preprocessor configured to receive and preprocess the motion information acquired from the vision sensor;
A position data preprocessor configured to receive and preprocess the motion information acquired from the position sensor;
A real time motion fine control unit which receives the vision data and the position data from the vision sensor and the position sensor and extracts accurate motion data in real time by resolving and adjusting the inconsistency between the vision data and the position data;
A BCI data preprocessor for preprocessing BCI information received from a Brain Computer Interface (BCI);
A real-time BCI label discrimination unit for determining a label indicating what kind of movement the user currently thinks by analyzing the preprocessed BCI data in real time using a discrimination model stored in a database;
A motion data extractor for extracting motion data from a BCI-motion mapping database based on the determined label;
A hybrid motion generator configured to determine a motion intended by the user based on the first motion data finely adjusted by the real-time motion fine controller and the second motion data extracted by the motion data extractor;
A person-robot motion mapping unit for mapping the movement of the user to the movement of the robot based on the motion determined by the hybrid motion generating unit and the information of the robot; And
A motion command transmitter for transmitting a motion command
Command server comprising a.
제4항에 있어서,
사람의 발화 또는 발성에 의한 음성 정보를 수신하여 상기 로봇이 출력할 수 있는 형태로 처리하는 음성 처리부; 및
상기 음성 처리부에 의해 처리된 음성 정보를 상기 로봇으로 전송하는 음성 전송부를 더 포함하는 명령 서버.
5. The method of claim 4,
A voice processing unit which receives voice information by human speech or speech and processes the voice information into a form that the robot can output; And
And a voice transmitter for transmitting the voice information processed by the voice processor to the robot.
제4항에 있어서, 상기 하이브리드 모션 생성부는,
상기 제1 움직임 데이터 또는 상기 제2 움직임 데이터만이 입력되는 경우에는 입력된 상기 제1 움직임 데이터 또는 상기 제2 움직임 데이터만을 사용하고,
상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 모두 입력되는 경우에는,
상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 일치하면, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터를 조합하여 더 정밀한 움직임으로 사용하고,
상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 일치하지 않으면, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 지정하는 두 가지 움직임을 동시에 할 수 있는 경우 두 가지 움직임을 모두 사용하고, 상기 제1 움직임 데이터와 상기 제2 움직임 데이터가 지정하는 두 가지 움직임을 동시에 할 수 없는 경우 두 가지 움직임 중 미리 정한 우선순위가 높은 움직임을 사용하여
상기 사용자가 의도하는 움직임을 결정하는 명령 서버.
The method of claim 4, wherein the hybrid motion generating unit,
When only the first motion data or the second motion data is input, only the input first motion data or the second motion data is used.
When both the first motion data and the second motion data are input,
When the first motion data and the second motion data coincide, the first motion data and the second motion data are combined and used as a more precise motion.
If the first motion data and the second motion data do not coincide, if both motions designated by the first motion data and the second motion data can be simultaneously performed, both motions are used, and the first motion data is used. If two motions specified by the motion data and the second motion data cannot be performed at the same time, a motion having a predetermined high priority among the two motions is used.
A command server for determining the movement intended by the user.
제4항에 있어서,
상기 사용자 별로 서로 다른 BCI-모션 매핑 데이터베이스를 사용할 수 있도록 상기 사용자를 인식하는 사용자 인식부를 더 포함하는 명령 서버.
5. The method of claim 4,
And a user recognizer configured to recognize the user so as to use a different BCI-motion mapping database for each user.
하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 로봇을 제어하기 위한 움직임 명령을 생성하는 명령 서버에서 뇌-컴퓨터 인터페이스(BCI: Brain Computer Interface)-모션 매핑 데이터베이스와 라벨 판별 모델을 구축하는 학습 서버로서,
비전 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 비전 데이터 전처리부;
위치 센서로부터 획득된 움직임 정보를 수신하여 전처리하는 위치 데이터 전처리부;
상기 비전 센서 및 위치 센서로부터 비전 데이터 및 위치 데이터를 받아들여 상기 비전 데이터 및 위치 데이터들 사이의 불일치를 해결하고 조절함으로써 정확한 움직임 데이터를 추출하는 움직임 미세 조절부;
BCI로부터 수신된 BCI 데이터를 전처리하는 BCI 데이터 전처리부;
상기 움직임 미세 조절부에 의해 추출된 정확한 움직임을 데이터베이스 저장에 적합한 형태로 바꾸는 움직임 데이터 모델링부;
상기 BCI 데이터를 데이터베이스 저장에 적합한 형태로 바꾸는 BCI 데이터 모델링부;
상기 움직임 데이터와 상기 BCI 데이터를 연동하여 BCI-모션 매핑 데이터베이스에 저장하는 BCI-모션 매핑 등록부;
상기 BCI-모션 매핑 데이터베이스를 이용하여 어떤 BCI 패턴이 어떤 생각에 해당하는지를 나타내는 라벨을 판별하는 모델을 생성하는 BCI-모션 판별 모델 생성부를 포함하는 학습 서버.
A learning server for constructing a brain computer interface (BCI) -motion mapping database and a label discrimination model in a command server generating a motion command for controlling a robot in a robot avatar system using a hybrid interface,
A vision data preprocessor configured to receive and preprocess the motion information acquired from the vision sensor;
A position data preprocessor configured to receive and preprocess the motion information acquired from the position sensor;
A motion fine control unit which receives the vision data and the position data from the vision sensor and the position sensor and extracts accurate motion data by resolving and adjusting the inconsistency between the vision data and the position data;
A BCI data preprocessor for preprocessing the BCI data received from the BCI;
A motion data modeling unit for converting the exact motion extracted by the motion fine control unit into a form suitable for database storage;
A BCI data modeling unit for converting the BCI data into a form suitable for database storage;
A BCI-motion mapping registration unit which stores the motion data and the BCI data in a BCI-motion mapping database;
And a BCI-motion discrimination model generation unit for generating a model for determining a label indicating which BCI pattern corresponds to what idea using the BCI-motion mapping database.
제8항에 있어서,
사용자 별로 맞춤형으로 상기 라벨을 판별할 수 있도록 상기 사용자의 식별정보를 확인하고 현재 학습중인 상기 사용자의 식별정보를 상기 BCI-모션 매핑 데이터베이스로 전달하는 사용자 인식부를 더 포함하는 학습 서버.
9. The method of claim 8,
And a user recognizing unit which checks the identification information of the user and transmits the identification information of the user currently being trained to the BCI-motion mapping database so that the label can be individually determined for each user.
하이브리드 인터페이스를 사용하는 로봇 아바타 시스템에서 로봇을 통해 획득한 정보를 사람에게 전달하는 지각 서버로서,
상기 로봇에 포함된 카메라로부터 비디오 데이터를 수신하여 처리하는 비디오 데이터 처리부;
상기 로봇에 포함된 마이크로폰으로부터 오디오 데이터를 수신하여 처리하는 오디오 데이터 처리부; 및
상기 로봇에 포함된 촉각 센서로부터 수신한 촉각 정보를 햅틱 액추에이터를 통해 사람에게 전달하기 위한 형태로 가공하는 촉각 데이터 처리부를 포함하는 지각 서버.
A perception server that delivers information acquired through a robot to a human in a robot avatar system using a hybrid interface,
A video data processor configured to receive and process video data from a camera included in the robot;
An audio data processor configured to receive and process audio data from a microphone included in the robot; And
And a tactile data processor configured to process the tactile information received from the tactile sensor included in the robot into a form for transmitting the tactile information to a person through a haptic actuator.
제10항에 있어서,
증강 현실(AR: Augmented Reality) 정보를 저장하는 데이터베이스부를 더 포함하며,
상기 비디오 데이터 처리부 및 상기 오디오 데이터 처리부는 상기 데이터베이스부에 저장되어 있는 증강 현실 정보를 이용하여 상기 비디오 데이터 및 상기 오디오 데이터를 가공하는 지각 서버.
The method of claim 10,
Further comprising a database unit for storing Augmented Reality (AR) information,
And the video data processing unit and the audio data processing unit process the video data and the audio data using augmented reality information stored in the database unit.
제10항에 있어서, 상기 촉각 데이터 처리부는,
상기 촉각 정보가 미리 정한 최대값을 넘지 않도록 가공하거나, 사용자가 원하는 방식으로 조절(calibration)된 강도로 가공하는 지각 서버.
The method of claim 10, wherein the tactile data processor,
Perceptual server is processed so that the tactile information does not exceed a predetermined maximum value, or processed to the intensity adjusted (calibrated) in a way desired by the user.
KR1020130000646A 2013-01-03 2013-01-03 Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor KR101343860B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130000646A KR101343860B1 (en) 2013-01-03 2013-01-03 Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130000646A KR101343860B1 (en) 2013-01-03 2013-01-03 Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor

Publications (1)

Publication Number Publication Date
KR101343860B1 true KR101343860B1 (en) 2013-12-20

Family

ID=49988848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130000646A KR101343860B1 (en) 2013-01-03 2013-01-03 Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor

Country Status (1)

Country Link
KR (1) KR101343860B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101776576B1 (en) * 2015-09-25 2017-09-08 숭실대학교산학협력단 Robot control system and method
WO2019032814A1 (en) * 2017-08-10 2019-02-14 Robert Bosch Gmbh System and method of direct teaching a robot
WO2019226033A3 (en) * 2019-08-28 2020-07-16 엘지전자 주식회사 Robot capable of autonomous movement by means of imitative-learning from object to be imitated, and autonomous movement method of robot
KR20200098223A (en) * 2019-02-12 2020-08-20 김주원 Input apparatus for controlling robot and system for controlling robot including input apparatus
CN111805546A (en) * 2020-07-20 2020-10-23 中国人民解放军国防科技大学 Human-multi-robot sharing control method and system based on brain-computer interface
CN112150635A (en) * 2020-09-02 2020-12-29 北京捷安申谋军工科技有限公司 AR individual soldier and robot mixed-editing combat system and method based on digital twin
WO2021006648A1 (en) * 2019-07-10 2021-01-14 김성룡 Method of providing real-time vr service through avatar
KR20210007931A (en) * 2019-07-10 2021-01-20 김성룡 Real time VR service method through robot avatar
KR102268579B1 (en) * 2020-03-10 2021-06-23 공주대학교 산학협력단 Apparatus and method for controlling painting robot using motion pattern of painting worker
KR102342872B1 (en) 2020-12-15 2021-12-24 옥재윤 Mutual sympathy system between user and avatar using motion tracking
KR20220060064A (en) * 2020-11-03 2022-05-11 한국생산기술연구원 A robot post-processing system using haptic technology and control method thereof
KR20230101299A (en) * 2021-12-29 2023-07-06 서울대학교산학협력단 Remote control method of motion tracking robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101137205B1 (en) 2002-03-15 2012-07-06 소니 주식회사 Robot behavior control system, behavior control method, and robot device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101137205B1 (en) 2002-03-15 2012-07-06 소니 주식회사 Robot behavior control system, behavior control method, and robot device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101776576B1 (en) * 2015-09-25 2017-09-08 숭실대학교산학협력단 Robot control system and method
WO2019032814A1 (en) * 2017-08-10 2019-02-14 Robert Bosch Gmbh System and method of direct teaching a robot
US11413748B2 (en) 2017-08-10 2022-08-16 Robert Bosch Gmbh System and method of direct teaching a robot
KR102177158B1 (en) * 2019-02-12 2020-11-10 김주원 Robot controlling system
KR20200098223A (en) * 2019-02-12 2020-08-20 김주원 Input apparatus for controlling robot and system for controlling robot including input apparatus
US11847297B2 (en) 2019-07-10 2023-12-19 MECLOUDS Inc. Method of providing real-time VR service through avatar
WO2021006648A1 (en) * 2019-07-10 2021-01-14 김성룡 Method of providing real-time vr service through avatar
KR20210007931A (en) * 2019-07-10 2021-01-20 김성룡 Real time VR service method through robot avatar
KR102325048B1 (en) * 2019-07-10 2021-11-10 김성룡 Real time VR service method through robot avatar
WO2019226033A3 (en) * 2019-08-28 2020-07-16 엘지전자 주식회사 Robot capable of autonomous movement by means of imitative-learning from object to be imitated, and autonomous movement method of robot
KR102268579B1 (en) * 2020-03-10 2021-06-23 공주대학교 산학협력단 Apparatus and method for controlling painting robot using motion pattern of painting worker
CN111805546B (en) * 2020-07-20 2021-11-26 中国人民解放军国防科技大学 Human-multi-robot sharing control method and system based on brain-computer interface
CN111805546A (en) * 2020-07-20 2020-10-23 中国人民解放军国防科技大学 Human-multi-robot sharing control method and system based on brain-computer interface
CN112150635A (en) * 2020-09-02 2020-12-29 北京捷安申谋军工科技有限公司 AR individual soldier and robot mixed-editing combat system and method based on digital twin
KR20220060064A (en) * 2020-11-03 2022-05-11 한국생산기술연구원 A robot post-processing system using haptic technology and control method thereof
KR102415427B1 (en) * 2020-11-03 2022-07-04 한국생산기술연구원 A robot post-processing system using haptic technology and control method thereof
KR102342872B1 (en) 2020-12-15 2021-12-24 옥재윤 Mutual sympathy system between user and avatar using motion tracking
WO2023128544A1 (en) * 2021-12-29 2023-07-06 서울대학교산학협력단 Remote control method for motion tracking robot
KR20230101299A (en) * 2021-12-29 2023-07-06 서울대학교산학협력단 Remote control method of motion tracking robot
KR102623672B1 (en) * 2021-12-29 2024-01-11 블루로빈 주식회사 Remote control method of motion tracking robot

Similar Documents

Publication Publication Date Title
KR101343860B1 (en) Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor
KR102217797B1 (en) Pericular and audio synthesis of entire face images
US20190142613A1 (en) Hybrid augmented reality multimodal operation neural integration environment
US11669726B2 (en) Methods and systems for interpolation of disparate inputs
KR101548156B1 (en) A wireless exoskeleton haptic interface device for simultaneously delivering tactile and joint resistance and the method for comprising the same
Hu et al. An overview of assistive devices for blind and visually impaired people
KR20200096617A (en) Context-based rendering of virtual avatars
KR20200034741A (en) Neural network training using representations of user interface devices
JP2023520463A (en) Avatar Customization for Optimal Gaze Discrimination
JP2023100853A (en) Multi-modal hand location and orientation for avatar movement
US10824247B1 (en) Head-coupled kinematic template matching for predicting 3D ray cursors
CN113196390B (en) Auditory sense system and application method thereof
US11281293B1 (en) Systems and methods for improving handstate representation model estimates
KR20190085895A (en) Artificial intelligence device that can be controlled according to user gaze
Hu et al. StereoPilot: A wearable target location system for blind and visually impaired using spatial audio rendering
JP2024023193A (en) Information processing device, and information processing method
JP2024009862A (en) Information processing apparatus, information processing method, and program
KR20140009900A (en) Apparatus and method for controlling robot
KR20190098930A (en) Method for providing food to user and apparatus thereof
CN113840588A (en) Touch sensing system and use method thereof
US20230260156A1 (en) Methods and systems for interpolation of disparate inputs
CN112230777A (en) Cognitive training system based on non-contact interaction
WO2020166373A1 (en) Information processing device and information processing method
US20210389767A1 (en) Information processing apparatus, information processing method, and program
KR20190114934A (en) Artificial device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170918

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 6