KR100757500B1 - System and method for interfacing between human and service robot based on action - Google Patents

System and method for interfacing between human and service robot based on action Download PDF

Info

Publication number
KR100757500B1
KR100757500B1 KR1020060043107A KR20060043107A KR100757500B1 KR 100757500 B1 KR100757500 B1 KR 100757500B1 KR 1020060043107 A KR1020060043107 A KR 1020060043107A KR 20060043107 A KR20060043107 A KR 20060043107A KR 100757500 B1 KR100757500 B1 KR 100757500B1
Authority
KR
South Korea
Prior art keywords
motion
robot
situation
command
user
Prior art date
Application number
KR1020060043107A
Other languages
Korean (ko)
Other versions
KR20070061078A (en
Inventor
이주행
심재철
손종무
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060043107A priority Critical patent/KR100757500B1/en
Publication of KR20070061078A publication Critical patent/KR20070061078A/en
Application granted granted Critical
Publication of KR100757500B1 publication Critical patent/KR100757500B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only

Abstract

본 발명은 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 관한 것으로 사용자가 간단한 동작으로 로봇 등을 제어할 수 있는 신호를 송신하고 송신된 신호를 상황에 맞는 개별동작으로 인식하여 기설정된 동작, 명령 해석표를 이용하여 상황과 응용에 맞는 명령으로 해석하여 로봇을 작동하도록 구성함으로써 다양한 동작에 기반하여 신속하게 로봇과 사람이 인터페이스 할 수 있는 효과가 있다. The present invention relates to a motion-based interface system and method between a service robot and a person, and transmits a signal for a user to control a robot, etc. with a simple operation, and recognizes the transmitted signal as an individual motion suitable for a situation. By using the command interpretation table to interpret the command according to the situation and application to configure the robot to operate, there is an effect that the robot and human can quickly interface based on various movements.

로봇, 인터페이스, 신경망, 동작 Robot, interface, neural network, motion

Description

서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법{SYSTEM AND METHOD FOR INTERFACING BETWEEN HUMAN AND SERVICE ROBOT BASED ON ACTION}Motion-based interface system and method between service robot and man {SYSTEM AND METHOD FOR INTERFACING BETWEEN HUMAN AND SERVICE ROBOT BASED ON ACTION}

도 1은 본 발명에 의한 동작기반 인터페이스 시스템을 개략적으로 나타내는 블록도,1 is a block diagram schematically illustrating an operation-based interface system according to the present invention;

도 2는 본 발명에 의한 동작신호입력부의 구성을 나타내는 블록도,2 is a block diagram showing a configuration of an operation signal input unit according to the present invention;

도 3은 본 발명에 의한 동작인식부, 명령해석부와 상황관리부의 구성을 나타내는 블록도,3 is a block diagram showing the configuration of an operation recognition unit, an instruction analysis unit and a situation management unit according to the present invention;

도 4는 본 발명에 의한 로봇 응용 소프트웨어의 구성을 나타내는 도면,4 is a diagram showing the configuration of robot application software according to the present invention;

도 5는 본 발명에 의한 동작기반 인터페이스 방법을 개략적으로 나타내는 흐름도이다. 5 is a flowchart schematically illustrating an operation-based interface method according to the present invention.

<도명의 주요 부분에 대한 부호의 설명><Description of the code for the main part of the figure>

100:동작신호입력부 200:동작인식부100: operation signal input unit 200: operation recognition unit

230:신경망 240:신경망선택기230: neural network 240: neural network selector

300:명령해석부 320:동작명령해석표300: command analysis unit 320: operation command analysis table

400:상황관리부 410:관리부400: situation management unit 410: management unit

500:로봇 600:영상출력장치500: robot 600: video output device

700:음성출력장치 800:로봇응용 소프트웨어700: voice output device 800: robot application software

본 발명은 서비스 로봇과 사용자 사이의 인터페이스에 관한 것으로, 더욱 상세하게는 사용자로부터 인식된 동작을 기초로 신속하게 연산작용을 수행하여 사용자와 서비스 로봇이 상호작용을 할 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 관한 것이다.The present invention relates to an interface between a service robot and a user. More particularly, the present invention relates to an interface between a service robot and a person, in which a user and a service robot can interact by performing a calculation operation on the basis of a motion recognized by the user. It relates to a motion-based interface system and method.

로봇이 기존의 정보기기와 구별되는 것은 이동을 할 수 있는 구동장치, 물건을 들어올릴 수 있는 로봇 팔 그리고 내장된 카메라의 각도를 조절할 수 있는 기계장치 등과 같은 작동장치를 구비하고 있다는 것이다. 이러한 작동장치들은 산업, 군사용 로봇 기술로부터 발전하였다. What distinguishes the robot from conventional information equipment is that it has an operating device such as a driving device that can move, a robot arm that can lift an object, and a mechanism that can adjust the angle of the built-in camera. These actuators have evolved from industrial and military robotics.

일반적으로 산업용, 군사용 로봇은 미리 작성된 프로그램에 따라 동작을 하기 때문에 작동을 시작한 후에는 사용자와 상호작용을 하기 위해 동작을 제어하기가 힘들었다. 하지만, 사람의 편리를 위한 서비스 로봇은 사용자의 다양한 요구에 적합하게 대응할 수 있는 지능적인 작업수행과 사용자와의 상호작용이 필요하게 되었다. 또한, 최근의 서비스 로봇은 컴퓨터와 유사한 다양한 기능을 구비하고 있기 때문에 컴퓨터 소프트웨어가 제공하는 GUI와 유사한 상호작용방법이 필요하게 되었 다. 그래서 이러한 필요성을 만족시켜 사용자와 서비스 로봇의 상호작용을 수행할 수 있는 다양한 사용자 인터페이스 장치가 고안되어 서비스 로봇에 장착되고 있다. In general, industrial and military robots operate according to a pre-written program, so it is difficult to control the movement to interact with the user after the operation is started. However, service robots for the convenience of humans require intelligent work performance and interaction with users that can respond appropriately to various needs of users. In addition, recently, service robots have various functions similar to those of computers, and thus, a interaction method similar to GUIs provided by computer software is required. Thus, various user interface devices are devised and installed in the service robot to satisfy the needs and to perform interaction between the user and the service robot.

로봇과 사용자 사이의 인터페이스 장치는 크게 출력장치, 입력장치, 양방향장치로 나눌 수 있다. The interface device between the robot and the user can be broadly divided into an output device, an input device, and a bidirectional device.

출력장치는 주로 영상과 음성을 이용하여 정보를 출력하였다. 영상출력장치는 로봇에 장착을 하기 위해 로봇 내부에 많은 공간이 필요하고 또한 전력이 많이 소비되는 문제와 출력된 영상을 이용하기 위해서는 사용자와의 거리가 근접해야 하는 문제가 있었다. The output device mainly outputs information using video and audio. The image output device requires a lot of space inside the robot to be mounted on the robot, and also consumes a lot of power and has a problem in that the distance from the user must be close to use the output image.

음성출력장치는 영상출력장치에 비해 공간과 소비전력 측면에서 이점이 있고 최근 음성합성기술을 활용하여 사용자에게 음성으로 정보를 전달하는 기능이 있어 많이 채택되고 있다. The audio output device has advantages in terms of space and power consumption compared to the video output device, and has recently been adopted because it has a function of delivering information to the user using voice synthesis technology.

로봇의 내부에 존재하는 입력 인터페이스 장치로는 다양한 단추나 터치스크린이 있다. 하지만, 단추와 터치스크린을 이용하여 정보를 입력하기 위해서는 사용자와 로봇이 상당히 근접한 위치에 있어야 하는 문제가 있다. Input interface devices existing inside the robot include various buttons or touch screens. However, in order to input information using a button and a touch screen, there is a problem that the user and the robot must be in a very close position.

리모컨, 무선 마우스, 무선 키보드를 이용하여 무선으로 로봇에 명령을 주는 방법은 다양한 기능을 수행하려고 하는 경우에 장치가 크고 무겁게 되어 휴대성이 떨어지는 문제가 있다. A method of wirelessly giving a command to a robot by using a remote controller, a wireless mouse, and a wireless keyboard has a problem in that the device becomes large and heavy when it is trying to perform various functions, and thus the portability is poor.

최근에 카메라를 통한 영상을 입력하는 경우에 영상 인식 소프트웨어를 활용하여 사용자의 얼굴과 동작을 인식할 수 있지만 카메라의 특성상 입력범위에 있어서 공간적, 광학적 제약이 있어 사용자 등이 카메라의 범위에 위치해야하는 불편함 과 영상 인식 기술을 동적 환경에 응용하는 것에 기술적으로 한계가 있다는 문제가 있다. In case of inputting the image through the camera recently, it is possible to recognize the user's face and motion by using image recognition software. However, due to the characteristics of the camera, there is spatial and optical limitation in the input range. There is a problem that there is a technical limitation in applying image recognition technology to dynamic environment.

마이크를 이용하여 음성을 입력하는 경우에는 음성 인식 소프트웨어와 음성합성기(TTS)를 활용하여 로봇과 사용자 사이에 명령을 전달하거나 대화를 하는 상호작용이 이루어질 수 있지만 오인식 문제로 자연스러운 대화를 기대하기 어렵다는 문제가 있다. In case of inputting voice using a microphone, voice recognition software and voice synthesizer (TTS) can be used to communicate commands or communicate between the robot and the user, but it is difficult to expect a natural conversation due to a misunderstanding problem. There is.

최근의 이동형 서비스 로봇은 최소한의 기능을 제외하고 여러가지 기능들을 외부로 분리하여 네트워크를 통해 기능을 제공받도록 하는 추세이다. 이러한 네트워크를 이용하는 방법은 가격을 낮추고 로봇의 소비전력을 줄일 수 있는 효과가 있다. 하지만 네트워크 기반 로봇은 자체적으로 영상 인식이나 음성인식을 처리하지 못하기 때문에 필요한 경우마다 원격으로 서버에 처리를 요청해야하는 불편함과 간단한 상호작용에도 카메라나 마이크와 같은 입력장치의 제한된 입력범위로 이동해야하고 입력한 후에도 지연과 오인식으로 인해 사용자가 불편을 겪어야 하는 문제가 있다. In recent years, mobile service robots tend to provide functions through a network by separating various functions to the outside except the minimum functions. Using this network has the effect of lowering the price and power consumption of the robot. However, since network-based robots cannot handle image recognition or voice recognition on their own, they must move to the limited input range of input devices such as cameras or microphones even in the inconvenience and inconvenience of having to request processing from a remote server whenever necessary. Even after inputting, there is a problem that the user must experience inconvenience due to delay and misrecognition.

따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 사용자의 동작을 입력신호로 감지하여 상황에 맞게 설정되어 있는 개별동작으로 인식하여 신속한 연산에 의해 명령을 출력하여 사용자와 로봇이 상호작용할 수 있도록 하여 입력장치와 사용자 사이의 거리 제약이 없이 간 단한 연산에 의해 신속하게 인터페이스 할 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법을 제공한다.Accordingly, the present invention has been made to solve the above problems of the prior art, an object of the present invention is to detect the user's motion as an input signal to recognize the individual operation is set according to the situation to output the command by rapid operation The present invention provides a motion-based interface system and method between a service robot and a person that can be quickly interfaced by a simple operation without limiting the distance between the input device and the user by allowing the user and the robot to interact.

한편, 본 발명의 다른 목적은 신호를 감지할 수 있는 장치를 사용자가 직접 장착을 할 수 있어 입력범위에 제약이 없을 뿐만 아니라 가볍게 휴대를 할 수 있고 또한 로봇과 로봇 응용에 따른 상황에 적합하게 개별적인 동작을 인식하여 그에 맞는 명령을 기 등록된 해석표에 의해 신속하게 처리할 수 있어 다양한 상호작용을 할 수 있고 사용자의 동작에 대한 인식률을 높일 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법을 제공한다. On the other hand, another object of the present invention is that the user can directly mount the device that can detect the signal is not limited to the input range and can be carried lightly and also suitable for the situation according to the robot and robot applications Motion-based interface system and method between service robot and human being that can recognize various motions and process the corresponding commands quickly by using the registered analysis table to enable various interactions and increase the recognition rate of user's motions To provide.

상기와 같은 목적을 달성하기 위한 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력부와 상기 동작신호입력부로부터 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 동작인식부와 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석부와 상기 명령해석부를 통해 전달된 명령에 포함된 정보에 따라 작동을 하는 로봇 및 로봇응용을 포함하여 이루어지는 것을 특징으로 한다. An operation-based interface system between a service robot and a person of the present invention for achieving the above object is a motion signal input unit and a motion signal input unit for detecting a user's motion as a signal through a motion sensor and transmitting the detected signal. Received signal transmitted from the motion recognition unit for interpreting the signal to recognize the individual operation according to the situation and the command interpretation unit for interpreting the recognized individual operation as a command suitable for the situation and application and the command interpreter Characterized in that it comprises a robot and robot applications that operate according to the information contained in the command.

이때, 동작인식부와 명령해석부는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 한다.At this time, the operation recognition unit and the command analysis unit is characterized in that it is controlled by the situation management unit for managing and transmitting the situation according to the robot application.

한편, 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 방법은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 단계와 상기 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 단계와 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 단계와 상기 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용이 작동하는 단계를 포함하여 이루어지는 것을 특징으로 한다. On the other hand, the motion-based interface method between the service robot and the person of the present invention detects the user's motion as a signal through a motion sensor, and transmitting the detected signal and receiving the transmitted signal and interpret the signal Including the step of recognizing the individual motion in accordance with the situation, the step of interpreting the recognized individual motion as a command suitable for the situation and application, and the operation of the robot and the robot application according to the information included in the interpreted command. It features.

이때, 개별동작으로 인식하는 단계와 명령으로 해석하는 단계는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 한다. At this time, the step of recognizing the individual operation and the step of interpreting the command is characterized in that it is controlled by the situation management unit for managing and transmitting the situation according to the robot application.

이하, 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, a motion-based interface system and a method between a service robot and a person of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 의한 동작기반 인터페이스 시스템을 개략적으로 나타내는 블록도이다. 1 is a block diagram schematically illustrating an operation-based interface system according to the present invention.

본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템은 사용자의 동작을 감지하여 감지된 신호를 송신하는 동작신호입력부(100), 감지된 신호를 해석하여 개별동작으로 인식하는 동작인식부(200), 인식된 개별동작을 상황에 맞는 적당한 명령으로 해석하는 명령해석부(300), 로봇의 응용에 따라 상황을 관리 및 전달하여 동작인식부(200)와 명령해석부(300)를 제어하는 상황(context)관리부(400), 사용자의 동작으로부터 생성된 명령에 따라 로봇(500), 영상출력장 치(600), 음성출력장치(700)를 작동하는 로봇응용 소프트웨어(800)를 구비하여 이루어져 있다. The motion-based interface system between a service robot and a person of the present invention detects a user's motion and transmits a detected signal to the motion signal input unit 100, and interprets the detected signal to recognize the motion as a separate motion 200. Command interpreting unit 300 for interpreting the recognized individual motions as appropriate commands for the situation, the situation to control the operation recognition unit 200 and the command interpreter 300 by managing and transmitting the situation according to the application of the robot ( context) management unit 400, and the robot application software 800 for operating the robot 500, the image output device 600, the voice output device 700 according to the command generated from the user's operation.

도 2는 본 발명에 의한 동작 신호 입력부의 구성을 나타내는 불록도이다. 2 is a block diagram showing the configuration of an operation signal input unit according to the present invention.

동작신호입력부(100)는 사용자의 동작을 감지하여 감지된 신호를 동작인식부(200)로 송신한다. The motion signal input unit 100 detects a user's motion and transmits the detected signal to the motion recognition unit 200.

동작신호입력부(100)는 사용자의 동작을 감지하는 동작센서장치(101), 감지된 신호를 임시저장하거나 장치 및 사용자의 식별자(ID)를 저장하는 메모리장치(103), 감지된 신호를 적당히 가공하여 무선송수신부(104)에 제공하는 제어장치(102), 제공된 감지 신호를 동작인식부(200)로 송신하는 무선송수신부(104)를 구비하여 이루어진다. The operation signal input unit 100 is a motion sensor device 101 for detecting a user's motion, a memory device 103 for temporarily storing the detected signal or storing the device and the identifier (ID) of the user, and appropriately processing the detected signal. And a control device 102 for providing the wireless transmitter / receiver 104 and a wireless transmitter / receiver 104 for transmitting the provided detection signal to the operation recognition unit 200.

또한 동작신호입력부(100)는 전원을 공급하는 전원부(106)와 사용자가 착용할 수 있도록 형성된 패키지 및 착용부(105)를 구비한다. In addition, the operation signal input unit 100 includes a power supply unit 106 for supplying power and a package and a wearing unit 105 formed to be worn by a user.

동작센서장치(101)는 사용자의 동작을 감지하여 신호를 출력하는 부분이다. 동작센서장치(101)는 사용자의 동작을 감지할 수 있는 다양한 센서를 다수 사용할 수 있고 바람직하게는 3축 관성 센서(가속도 센서)가 사용된다. The motion sensor device 101 detects a user's motion and outputs a signal. The motion sensor device 101 may use a plurality of sensors capable of detecting a user's motion, and preferably a three-axis inertial sensor (acceleration sensor) is used.

제어장치(102)는 동작센서장치(101)로부터 출력된 신호를 수집하여 적당히 가공하여 무선송수신부(104)를 통해 동작인식부(200)로 전달한다. The control device 102 collects the signal output from the motion sensor device 101 and processes the signal appropriately, and transmits the signal to the motion recognition unit 200 through the wireless transmission / reception unit 104.

메모리장치(103)는 제어장치(102)에서 가공된 신호를 임시 저장하거나, 장치 및 사용자의 식별자(ID)를 저장하여 제어장치(102)에 의해 필요한 정보를 이용할 수 있도록 내장된다. The memory device 103 is embedded to temporarily store a signal processed by the control device 102 or to store information about the device and the user's identifier (ID) so that the information required by the control device 102 can be used.

메모리장치(103)에 저장되어 있는 장치 및 사용자 식별자(ID)는 동작신호입력부(100)를 착용하고 있는 사용자의 위치를 파악하거나 현재 장치나 사용자에 관한 기본적인 정보를 파악할 필요가 있는 경우에 제어장치(102)를 통해 이용된다. The device and the user identifier (ID) stored in the memory device 103 may be used to determine the location of the user wearing the operation signal input unit 100 or to determine basic information about the current device or the user. Is used via 102.

무선송수신부(104)는 제어장치(102)에 의해 가공된 신호를 동작인식부(200)에 송신한다. 또한 무선송수신부(104)는 필요한 경우에 장치 및 사용자에 관한 정보 요청을 포함하는 신호를 수신하고 그에 관련된 정보를 송신하는 기능도 한다. The radio transmitter / receiver 104 transmits the signal processed by the control device 102 to the motion recognition unit 200. In addition, the radio transmitter / receiver 104 also functions to receive a signal including a request for information about the device and the user and to transmit information related thereto if necessary.

패키지 및 착용부(105)는 사용자가 착용할 수 있는 형태로 이루어지고 착용부(105)의 형태와 크기는 세부 부품의 선택에 의해 결정된다. 착용할 수 있는 형태로는 신체의 다양한 곳에 착용이 가능하고 대표적인 예로 반지와 같은 착용형태를 이용할 수 있다. The package and the wearing portion 105 are formed in a form that can be worn by a user, and the shape and size of the wearing portion 105 are determined by the selection of the detail parts. The wearable form may be worn on various places of the body, and a typical wearable form such as a ring may be used.

도 3은 본 발명에 의한 동작인식부, 명령해석부와 상황관리부의 구성을 나타내는 블록도이다.3 is a block diagram showing the configuration of an operation recognition unit, an instruction analysis unit and a situation management unit according to the present invention.

동작인식부(200)는 동작신호입력부(100)로부터 송신된 신호를 수신하는 무선송수신부(210), 수신된 신호의 동작 데이터를 해석하여 개별동작으로 인식하는 인식장치(220), 인식장치(220)가 신호를 개별동작으로 인식하는 과정에서 사용되고 사용자와 로봇응용에 따라 다양하게 존재하는 학습된 신경망(330), 학습된 다양한 신경망(330) 중에서 상황관리부(400)의 제어명령에 따라 필요한 신경망(230)을 선택하는 신경망선택기(240)로 이루어진다. The motion recognition unit 200 may include a wireless transmitter / receiver 210 that receives a signal transmitted from the motion signal input unit 100, a recognition device 220 that interprets the motion data of the received signal and recognizes the motion as a separate motion. The neural network 220 is used in the process of recognizing the signal as an individual operation, and the neural network required according to the control command of the situation management unit 400 among the various learned neural networks 330 and various learned neural networks 330. It consists of a neural network selector 240 for selecting (230).

신경망(230)은 사용자 및 로봇 응용에 따라 다양하게 존재하고 각 신경망(230)은 학습 알고리즘에 의해 구성될 수 있다. 예를 들어 위에서 아래로 내리는 동작이 있는 경우에 방향인식 신경망은 동작신호를 해당 방향으로 인식하지만, 숫자인식 신경망은 숫자 1로 인식하게 된다. The neural network 230 exists in various ways according to a user and a robot application, and each neural network 230 may be configured by a learning algorithm. For example, when there is a motion that moves from top to bottom, the direction recognition neural network recognizes the motion signal in the corresponding direction, but the number recognition neural network recognizes the number 1.

신경망선택기(240)는 상황관리부(400)의 제어명령에 따라 필요한 신경망(230)을 선택한다. 신경망선택기(240)는 상황관리부(400)에 등록되어 있는 로봇 및 로봇응용 등의 다양한 상황에 따라서 미리 학습되어 준비된 신경망을 선택하여 로드시킨다. The neural network selector 240 selects the neural network 230 necessary according to the control command of the situation management unit 400. The neural network selector 240 selects and loads a neural network prepared in advance according to various situations such as robots and robot applications registered in the context management unit 400.

동작인식부(200)가 수신한 신호를 개별동작으로 인식하는 방법은 신경망을 이용한 방법 외에 다른 소프트 컴퓨팅 기법(인공지능기법)을 사용하여 인식장치(220)를 구성할 수도 있다. 하지만 간단한 동작을 한 번씩 입력하여 다양한 동작을 인식하는 경우에는 학습된 신경망을 이용하는 것이 바람직하다. 신경망을 이용한 동작인식부(200)는 동작 신호에 대해 사칙연산 수준의 간단한 산술 연산으로 구성되기 때문에 영상 및 음성 인식에 비해서 간단하고 계산이 빠르다. In the method of recognizing the signal received by the motion recognition unit 200 as an individual motion, the recognition device 220 may be configured using another soft computing technique (artificial intelligence technique) in addition to the method using a neural network. However, when recognizing various movements by inputting simple movements once, it is desirable to use a learned neural network. Since the motion recognition unit 200 using the neural network is composed of simple arithmetic operations of arithmetic level of the motion signal, it is simpler and faster than the image and voice recognition.

명령해석부(300)는 동작인식부(200)의 인식결과를 이용하여 로봇응용소프트웨어(800)에 로봇(500), 영상출력장치(600), 음성출력장치(700)를 통해 동작하거나 출력되는 정보를 포함하는 명령을 전달한다. 명령해석부(300)는 개별적인 동작에 대응되는 상황에 맞는 명령에 관한 데이터 정보를 포함하는 동작, 명령 해석표(320)와 상황관리부(400)의 제어에 의해 동작, 명령 해석표(320)를 선택하는 해 석표선택(330)부분 그리고 상항 관리기(400)를 통해 선택된 동작, 명령 해석표(320)를 바탕으로 현재 상황과 응용에 맞는 명령을 생성하여 최종적으로 로봇(500)이나 로봇응용소프트웨어(800)로 전달하는 명령해석장치(310)로 구성된다.The command interpreter 300 operates or outputs the robot application software 800 through the robot 500, the image output device 600, and the voice output device 700 by using the recognition result of the motion recognition unit 200. Pass a command containing the information. The command interpreter 300 includes an operation including data information about a command corresponding to a situation corresponding to an individual operation, an operation under the control of the command analysis table 320 and the situation management unit 400, and a command analysis table 320. Based on the selected analysis table selection part 330 and the operation manager 400 selected by the operation manager, the command analysis table 320 generates a command suitable for the current situation and application, and finally the robot 500 or the robot application software ( It is composed of a command interpretation device 310 to deliver.

다만, 명령해석부(300)의 동작, 명령 해석표(320)와 해석표선택(330)은 상황관리부(400)에 등록된 동작, 명령 해석표(320)와 관리부(410)의 제어에 의해 해석표선택(330)이 이루어질 수 있다. However, the operation of the command interpretation unit 300, the command analysis table 320 and the analysis table selection 330 is controlled by the operation registered in the situation management unit 400, the command analysis table 320 and the management unit 410 Analysis table selection 330 may be made.

상황관리부(400)는 현재 가용하거나 선택된 응용에 따라 동작 인식부(200)와 명령해석부(300)를 제어한다. The context management unit 400 controls the motion recognition unit 200 and the command interpreter 300 according to the currently available or selected application.

상황(context)관리부(400)는 크게 관리부(410), 사용자(user)상황부(420), 응용(application)상황부(430), 환경(environment)상황부(440) 그리고 로봇(robot)상황부(450)로 분류되어 상황을 수집하고 관리하게 된다. The context management unit 400 is largely divided into a management unit 410, a user situation unit 420, an application situation unit 430, an environment situation unit 440, and a robot situation. It is classified as part 450 to collect and manage the situation.

사용자(user)상황부(420)는 사용자의 아이디, 응용 별 선호사항, 신경망 특징에 관한 사항을 기록하고 있다. The user status unit 420 records a user ID, application preferences, and neural network features.

응용(application)상황부(430)와 로봇(robot)상황부(450)는 외부에서 공개되어 있는 제어명령, 상태를 기록하고 있다. The application situation unit 430 and the robot situation unit 450 record the control commands and states that are disclosed from the outside.

로봇(500)과 로봇 응용 소프트웨어(800)에 전달되는 명령을 해석하기 위해 관련 동작, 명령 해석표를 응용상황부(430)에 등록할 수 있다. In order to interpret a command transmitted to the robot 500 and the robot application software 800, a related operation and a command interpretation table may be registered in the application situation unit 430.

상황관리부(400)는 등록되어 있는 응용 상황이 되면 등록된 해석표에서 적당한 해석표를 선택하고 이에 따라 명령해석장치(310)는 명령을 생성한다. The situation management unit 400 selects an appropriate analysis table from the registered analysis table when the application situation is registered, and accordingly, the command interpretation device 310 generates a command.

명령의 형식은 시스템 구현 방법에 따라 달라질 수 있는데 메시지 형식이 바람직하다. 예를 들어, "앞으로 누르기 동작"은 화면 출력기상에 출력된 단추를 누르는 동작으로 해석되어 "누르기" 메시지를 생성하여 로봇 응용 소프트웨어(800)에 전달한다. 또는 "반복해서 위 아래로 흔들기" 동작은 로봇의 움직임을 정지시키기 위한 동작으로 "정지" 메시지를 생성하여 로봇 응용 소프트웨어(800)에 전달한다. The format of the command can vary depending on how the system is implemented. The message format is preferred. For example, a "forward push" action is interpreted as a push of a button output on the screen output to generate a "press" message and pass it to the robot application software 800. Alternatively, the "shake repeatedly up and down" operation is an operation for stopping the movement of the robot to generate a "stop" message and deliver it to the robot application software (800).

환경(environment)상황부(440)는 로봇 및 응용이 이용 가능한 영상 및 음성 출력장치의 상세정보를 기록하고 있다. The environment situation unit 440 records detailed information of video and audio output devices that can be used by robots and applications.

구체적인 상황 정보는 필요에 의해 추가될 수 있도록 관리된다. 이렇게 상황 정보를 필요에 의해 추가하기 위해서는 형식과 내용이 분리된 XML 방식을 사용하는 것이 바람직하다.Specific situation information is managed to be added as needed. In order to add situational information as necessary, it is desirable to use an XML method having a format and a content separated.

로봇 응용 소프트웨어(800)는 명령해석부(300)에서 생성된 명령을 이용하여 로봇(500)의 동작을 제어하거나 영상출력장치(600), 음성출력장치(700)에 관련 정보를 출력한다. The robot application software 800 controls the operation of the robot 500 by using the command generated by the command interpreter 300 or outputs related information to the image output device 600 and the voice output device 700.

로봇(500)과 로봇 응용 소프트웨어(800)는 사용자의 동작으로부터 발생된 동작을 바탕으로 명령을 수행한다. 로봇(500)은 영상 및 음성 인식 기반 인터페이스와 같은 기존의 인터페이스 장치를 가질 수 있다. 로봇 응용 소프트웨어(800)도 기존의 인터페이스와 본 발명의 동작 기반 인터페이스를 함께 사용할 수 있다. The robot 500 and the robot application software 800 perform a command based on the motion generated from the user's motion. The robot 500 may have a conventional interface device such as an image and voice recognition based interface. The robot application software 800 may also use the existing interface and the motion-based interface of the present invention.

로봇(500)과 로봇 응용 소프트웨어(800)는 영상 출력장치(700)와 음성 출력장치(700)를 사용하여 상호작용에 필요한 정보를 사용자에게 주는 것이 바람직하 다. 이는 현재 사용할 수 있는 모든 동작을 모두 외울 수 없기 때문에 영상출력장치(600)와 음성출력장치(700)를 통해 이를 알려주는 것이 바람직하다. 또한 입력된 동작의 내용을 확인하고 오인식 결과를 영상, 음성출력장치(600,700)를 통해 사용자가 확인하도록 하는 것이 바람직하다. The robot 500 and the robot application software 800 preferably use the image output apparatus 700 and the audio output apparatus 700 to provide the user with information necessary for interaction. Since it is not possible to memorize all of the currently available operations, it is desirable to inform this through the image output apparatus 600 and the audio output apparatus 700. In addition, it is preferable to check the contents of the input operation and allow the user to check the misrecognition result through the video and audio output devices 600 and 700.

도 4는 본 발명에 의한 로봇 응용 소프트웨어의 구성을 나타내는 도면이다. 4 is a diagram showing the configuration of the robot application software according to the present invention.

로봇 응용 소프트웨어(800)는 명령해석부(300)로부터 생성된 명령을 받아서 응용로직부(810)에 의해 명령에 포함된 정보를 분석하여 로봇(820)을 제어하는 제어정보(820), 영상출력장치(600)를 통해 출력되는 영상정보(830)와 음성출력장치(700)를 통해 출력되는 음성정보(840)로 분류하여 각각의 로봇(500), 영상출력장치(600), 음성출력장치(700)에 관련정보를 제공한다.The robot application software 800 receives the command generated by the command interpreter 300 and analyzes the information included in the command by the application logic unit 810 to control the robot 820 and control information 820 and image output. The robot 500, the image output device 600, and the audio output device may be classified into the image information 830 output through the device 600 and the audio information 840 output through the audio output device 700. Relevant information is provided.

로봇(500)은 제어정보(820)에 의한 동작을 수행한다. 로봇(500)은 로봇 응용 소프트웨어(800)를 통해 제어정보를 받을 수 있지만 또 다른 방법으로 명령해석부(300)로부터 명령을 직접 받아서 이에 포함된 제어정보를 이용하여 직접 동작을 수행할 수 있다.The robot 500 performs an operation by the control information 820. The robot 500 may receive control information through the robot application software 800, but may directly receive a command from the command interpreter 300 and perform a direct operation using the control information included therein.

영상출력장치(600)와 음성출력장치(700)는 명령으로부터 생성된 영상정보(830)와 음성정보(840)를 출력하고 사용자는 출력내용을 확인하여 입력된 동작에 의한 결과를 확인하여 오인식 여부를 확인할 수 있다. The image output apparatus 600 and the audio output apparatus 700 output the image information 830 and the audio information 840 generated from the command, and the user checks the output contents and checks the result of the input operation. You can check.

도 5는 본 발명에 의한 동작기반 인터페이스 방법을 개략적으로 나타내는 흐 름도이다.5 is a flowchart schematically showing an operation-based interface method according to the present invention.

서비스 로봇과 사람 사이의 동작기반 인터페이스 방법은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력단계(S100)와 송신된 신호를 수신하고 수신된 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 개별동작인식단계(S200)와 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석단계(S300) 그리고 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용을 작동하는 로봇 및 로봇응용 작동단계(S400)를 포함하여 이루어지는 것을 특징으로 한다. The motion-based interface method between a service robot and a person detects a user's motion as a signal through a motion sensor, receives an operation signal input step S100 for transmitting the detected signal, and receives a transmitted signal and interprets the received signal. Recognition step (S200) for recognizing the individual motion according to the situation and the command interpretation step (S300) for interpreting the recognized individual motion as a command suitable for the situation and application and the robot and the robot according to the information contained in the interpreted command The robot and the robot application operation step (S400) for operating the application is characterized in that it is made.

개별동작인식단계(S200)와 명령해석단계(S300)는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어된다. Individual motion recognition step (S200) and command interpretation step (S300) is controlled by the situation management unit for managing and transmitting the situation according to the robot application.

개별동작인식단계(S200)는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력단계(S100)로부터 수신한 신호를 개별동작으로 인식한다. Individual motion recognition step (S200) recognizes the signal received from the motion signal input step (S100) as a separate motion through the neural network selected by the context manager based on a plurality of neural networks learned for the application and the user.

명령해석단계(S300)는 개별동작인식단계(S200)에 의한 인식결과와 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 로봇장치의 응용에 적합한 명령으로 해석하여 전달한다.Command interpreting step (S300) is interpreted according to the result of the recognition by the individual motion recognition step (S200), the operation provided from the situation manager, command analysis table, and transmits the motion as a command suitable for the application of the robot apparatus.

로봇 및 로봇응용 작동 단계(S400)는 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공한다.Robot and robot application operation step (S400) provides the user with information necessary for interaction by the image output device and the audio output device.

동작신호입력단계(S100)는 사용자가 장착한 장치에 의해 이루어진다. The operation signal input step S100 is performed by a device mounted by a user.

본 발명의 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법에 의해 동작을 기반으로 로봇과 사람이 인터페이스 하는 방법에 대한 간단한 응용 시나리오를 설명한다. 시나리오는 거실 소파에 앉아 있는 사용자가 동작신호입력부(100)를 착용하고 있다가 집안 어딘가에 있는 로봇을 호출하는 것이다. A simple application scenario for a method of interfacing a robot and a person based on the motion by the motion-based interface system and method between the service robot and the person of the present invention will be described. The scenario is that a user sitting on a living room sofa calls the robot somewhere in the house while wearing the motion signal input unit 100.

사용자는 동작신호입력부(100)(예를 들면, 반지)를 착용한 손으로 미리 정의된 동작을 수행한다. 예를 들어, 세 번 빠르게 흔들기 동작을 시행한다. 이때 발생한 동작신호는 동작센서장치(101)에 의해 감지되어 무선송수신부(104)를 통해 동작인식부(200)로 전달된다. The user performs a predefined operation with a hand wearing the operation signal input unit 100 (eg, a ring). For example, shake three times quickly. The operation signal generated at this time is sensed by the motion sensor device 101 and is transmitted to the motion recognition unit 200 through the wireless transmission / reception unit 104.

상황관리부(400)는 현재 로봇(500)이 대기 상황이기 때문에 동작인식부(200)에 미리 학습되어 준비된 대기 상황용 신경망(230)을 로드시킨다. 동작인식부(200)는 이 대기 상황용 신경망을 통해 세 번 빠르게 흔들기가 인식되었다고 인식하고 그 결과를 명령해석부(300)에 전달한다. The situation management unit 400 loads the neural network 230 for the waiting situation prepared and learned in advance in the operation recognition unit 200 because the robot 500 is currently in the standby situation. The motion recognition unit 200 recognizes that the shake is recognized three times quickly through the neural network for the waiting situation, and transmits the result to the command interpreter 300.

상황관리부(400)는 대기 상황에 맞는 동작, 명령 해석표(320)를 명령해석부(300)에 로드하고, 명령해석부(300)는 동작, 명령 해석표(320)를 이용해 대기 상황에서 "세 번 빠르게 흔들기" 동작은 "로봇 호출"이라는 명령으로 해석하여 "로봇 호출"이라는 명령을 생성한다. The situation management unit 400 loads the operation corresponding to the waiting situation, the command analysis table 320 to the command analysis unit 300, and the command analysis unit 300 uses the operation, the command analysis table 320 in the waiting situation. The three quick shakes "action translates into a" call robot "command and generates a command called" robot call ".

생성된 명령은 로봇 시스템이나 다른 응용에서 제공하는 "어디에 있는 누구"라는 인수와 함께 로봇에게 전달되고, 로봇은 호출한 사용자에게로 다가가게 된다. 이때, 사용자가 장착하고 있는 동작신호입력부(100)의 메로리장치(103)에 저장되어 있는 장치 및 사용자 식별(ID)을 이용하여 사용자의 위치를 파악하여 사용자에게 다가간다. The generated command is passed to the robot with the argument "who is where" provided by the robotic system or other application, and the robot approaches the calling user. At this time, by using the device and the user identification (ID) stored in the memory device 103 of the operation signal input unit 100 mounted on the user to determine the location of the user to approach the user.

영상출력장치(600)가 이용되고 있는 경우라면 현재 입력 가능한 동작과 그 결과를 영상출력장치(600)를 통해 사용자에게 보여 줄 수 있다. 예를 들면, 사용자의 거실 TV가 로봇 응용 소프트웨어(800)와 연동하여 영상출력정보를 출력할 수 있다.If the image output apparatus 600 is being used, the current input operation and the result thereof may be shown to the user through the image output apparatus 600. For example, the living room TV of the user may output image output information in cooperation with the robot application software 800.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. Although the present invention has been described in more detail with reference to some embodiments, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention.

상술한 바와 같이, 본 발명에 따른 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법은 사용자의 동작을 인식하여 상황에 맞는 명령을 출력하여 로봇이 동작함으로써 입력장치와 사용자 사이에 거리 제약이 없고, 동작신호입력부를 사용자가 직접 장착하여 동작을 감지할 수 있어 입력범위에 제한이 없는 효과가 있다. As described above, the motion-based interface system and method between a service robot and a person according to the present invention recognizes the user's motion and outputs a command suitable for a situation, thereby operating a robot, thereby eliminating a distance restriction between the input device and the user. The user can directly mount the operation signal input unit to detect the operation, thereby providing an effect that the input range is not limited.

또한 본 발명에 따른 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법은 학습된 신경망에 의해 개별동작을 인식할 수 있기 때문에 연산작용을 신속하게 처리할 수 있고 상황에 맞는 동작, 명령 해석표를 이용하여 다양한 명령을 인식하고 또한 출력장치에 의해 오인식 여부를 사용자가 직접 확인할 수 있는 효과가 있다. In addition, the motion-based interface system and method between the service robot and the person according to the present invention can recognize the individual motion by the learned neural network, so that it is possible to quickly process arithmetic operations and use the motion and command interpretation table according to the situation. By recognizing a variety of commands and also by the output device there is an effect that the user can directly check whether or not.

Claims (14)

사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력부;An operation signal input unit for detecting a user's motion as a signal through a motion sensor and transmitting the detected signal; 상기 동작신호입력부로부터 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 동작인식부;An operation recognition unit for receiving a signal transmitted from the operation signal input unit, interpreting the signal, and recognizing it as an individual operation suitable for a situation; 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석부;A command interpreter for interpreting the recognized individual motions into commands suitable for a situation and an application; 상기 명령해석부를 통해 전달된 명령에 포함된 정보에 따라 작동을 하는 로봇을 포함하여 이루어지며,It includes a robot that operates according to the information contained in the command transmitted through the command interpretation unit, 상기 동작인식부와 상기 명령해석부는 로봇 응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The motion recognition unit and the command interpretation unit is a motion-based interface system between the service robot and the person, characterized in that controlled by the situation management unit for managing and transmitting the situation according to the robot application. 삭제delete 제 1항에 있어서,The method of claim 1, 상기 동작인식부는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상기 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력부로부터 수신한 신호를 개별동작으로 인식하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The motion recognition unit between the service robot and the person, characterized in that the signal received from the motion signal input unit through the neural network selected by the situation manager based on a plurality of neural networks learned appropriately for the application and the user as an individual operation Motion-based interface system. 제 3항에 있어서,The method of claim 3, wherein 상기 명령해석부는 상기 동작인식부의 인식결과와 상기 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 상기 로봇장치의 응용에 적합한 명령으로 해석하여 전달하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The command interpreter is an operation between the service robot and a person, characterized in that the operation is interpreted as a command suitable for the application of the robot device according to the recognition result of the operation recognition unit and the operation, command analysis table provided from the situation manager. Based interface system. 제 1항에 있어서,The method of claim 1, 상기 동작신호입력부는 사용자가 착용할 수 있는 형태로 이루어지는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The motion signal input unit is a motion-based interface system between a service robot and a person, characterized in that the user can wear a form. 제 5항에 있어서,The method of claim 5, 상기 동작신호입력부는 사용자와 동작신호입력부의 식별자(ID)를 저장하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템. And the motion signal input unit stores an identifier (ID) of the user and the motion signal input unit. 제 1항에 있어서,The method of claim 1, 상기 로봇와 로봇응용은 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The robot and the robot application is a motion-based interface system between the service robot and the person, characterized in that to provide the user with information necessary for interaction by the image output device and the audio output device. 제 1항에 있어서,The method of claim 1, 상기 로봇 및 로봇응용은 자신의 상황정보를 공개하거나 상황관리기에 능동적으로 등록하는 기능을 갖는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The robot and the robot application is a motion-based interface system between a service robot and a person, characterized in that it has a function to publicly publish its own situation information or a situation manager. 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 단계;Detecting a user's motion as a signal through a motion sensor and transmitting the detected signal; 상기 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 단계; Receiving the transmitted signal, interpreting the signal, and recognizing it as an individual operation suitable for a situation; 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 단계;Interpreting the recognized individual operation into a command suitable for a situation and an application; 상기 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용이 작동을 하는 단계를 포함하여 이루어지며,Including the step of operating the robot and the robot application according to the information contained in the interpreted command, 상기 개별동작으로 인식하는 단계와 상기 명령으로 해석하는 단계는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.Recognizing the individual operation and the step of interpreting the command is a motion-based interface between the service robot and the person, characterized in that controlled by the situation management unit for managing and transmitting the situation according to the robot application. 삭제delete 제 9항에 있어서,The method of claim 9, 상기 개별동작으로 인식하는 단계는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상기 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력단계로부터 수신한 신호를 개별동작으로 인식하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.Recognizing the individual operation is characterized in that the signal received from the operation signal input step through the neural network selected by the situation manager based on a plurality of neural networks learned for the application and the user as a separate operation characterized in that Behavior-based interface method between service robots and people. 제 11에 있어서,The method according to claim 11, 상기 명령으로 해석하는 단계는 상기 개별동작으로 인식되는 단계에 의한 인식결과와 상기 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 상기 로봇장치의 응용에 적합한 명령으로 해석하여 전달하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.The interpreting of the command may include interpreting and transmitting the motion as a command suitable for the application of the robot apparatus according to the recognition result by the step of recognizing the individual motion and the motion and command analysis table provided from the situation manager. An action based interface method between a service robot and a person. 제 9항에 있어서,The method of claim 9, 상기 로봇 및 로봇응용이 작동하는 단계는 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.The operation of the robot and the robot application is a motion-based interface system between a service robot and a person, characterized in that to provide the user with information necessary for interaction by the image output device and the audio output device. 제 9항에 있어서,The method of claim 9, 상기 사용자의 동작을 동작센서를 통해 신호로 감지하는 단계는 사용자가 장착한 장치에 의해 이루어지는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법. The step of detecting the user's motion as a signal through the motion sensor is a motion-based interface method between the service robot and the person, characterized in that made by the user-mounted device.
KR1020060043107A 2005-12-08 2006-05-12 System and method for interfacing between human and service robot based on action KR100757500B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060043107A KR100757500B1 (en) 2005-12-08 2006-05-12 System and method for interfacing between human and service robot based on action

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020050119723 2005-12-08
KR20050119723 2005-12-08
KR1020060043107A KR100757500B1 (en) 2005-12-08 2006-05-12 System and method for interfacing between human and service robot based on action

Publications (2)

Publication Number Publication Date
KR20070061078A KR20070061078A (en) 2007-06-13
KR100757500B1 true KR100757500B1 (en) 2007-09-11

Family

ID=38357012

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060043107A KR100757500B1 (en) 2005-12-08 2006-05-12 System and method for interfacing between human and service robot based on action

Country Status (1)

Country Link
KR (1) KR100757500B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048406B1 (en) * 2008-12-17 2011-07-11 한국전자통신연구원 Game system and method for recognizing user posture as user command
KR20190076380A (en) * 2017-12-22 2019-07-02 한국전자통신연구원 Apparatus and method for detecting action based on multi-modal
US10867236B2 (en) 2016-04-15 2020-12-15 Samsung Electronics Co., Ltd. Interface neural network

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927950B1 (en) * 2008-02-29 2009-11-23 주식회사 케이티 Robot behavior control system using robot script and its robot
KR100982164B1 (en) * 2008-12-18 2010-09-14 한양대학교 산학협력단 Method and device for recognition of human activity based on activity theory
US10466795B2 (en) 2013-03-29 2019-11-05 Lg Electronics Inc. Mobile input device and command input method using the same
KR101628482B1 (en) 2014-09-18 2016-06-21 현대자동차주식회사 System for detecting motion using analysis of radio signal in vehicel and method thereof
US10081106B2 (en) 2015-11-24 2018-09-25 X Development Llc Safety system for integrated human/robotic environments
KR20170070414A (en) 2015-12-14 2017-06-22 현대자동차주식회사 Wearable robot device and controlling method of the same
WO2017133781A1 (en) * 2016-02-05 2017-08-10 Abb Schweiz Ag Controlling an industrial robot using interactive commands
CN107322592B (en) * 2017-06-15 2021-03-12 重庆柚瓣科技有限公司 Intelligent control method for endowment robot
KR102131097B1 (en) * 2018-10-15 2020-07-07 호남대학교 산학협력단 Robot control system and robot control method using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010074568A (en) * 2001-05-08 2001-08-04 이중호 The acceleration sensing motion sensor and Method for sensing therof
EP1136193A2 (en) 2000-03-21 2001-09-26 Sony Corporation Humanoid robot communicating with body language
KR20040014123A (en) * 2002-08-06 2004-02-14 윤재민 Emotion and Motion Extracting System of Virtual Human and its Method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1136193A2 (en) 2000-03-21 2001-09-26 Sony Corporation Humanoid robot communicating with body language
KR20010074568A (en) * 2001-05-08 2001-08-04 이중호 The acceleration sensing motion sensor and Method for sensing therof
KR20040014123A (en) * 2002-08-06 2004-02-14 윤재민 Emotion and Motion Extracting System of Virtual Human and its Method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048406B1 (en) * 2008-12-17 2011-07-11 한국전자통신연구원 Game system and method for recognizing user posture as user command
US10867236B2 (en) 2016-04-15 2020-12-15 Samsung Electronics Co., Ltd. Interface neural network
KR20190076380A (en) * 2017-12-22 2019-07-02 한국전자통신연구원 Apparatus and method for detecting action based on multi-modal
KR102241705B1 (en) 2017-12-22 2021-04-19 한국전자통신연구원 Apparatus and method for detecting action based on multi-modal

Also Published As

Publication number Publication date
KR20070061078A (en) 2007-06-13

Similar Documents

Publication Publication Date Title
KR100757500B1 (en) System and method for interfacing between human and service robot based on action
US11543887B2 (en) User interface control of responsive devices
EP3387628B1 (en) Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
JP7243110B2 (en) Information processing device and information processing method, computer program, and package reception support system
EP2778865A2 (en) Input control method and electronic device supporting the same
CN112771478A (en) Neuromuscular control of physical objects in an environment
US20120268580A1 (en) Portable computing device with intelligent robotic functions and method for operating the same
US20090157221A1 (en) Robotic system, robot and mobile phone
JP2007190659A (en) Robot remote operation system
KR102288658B1 (en) Robot and its control method
KR20130060952A (en) Remote control system for service robot
CN109048932A (en) A kind of intellect service robot system
Corradini et al. A map-based system using speech and 3D gestures for pervasive computing
WO2018117514A1 (en) Airport robot and movement method therefor
JP2007160427A (en) Robot control system
KR20190106925A (en) Ai robot and the control method thereof
KR20140022654A (en) Cleaning robot for having gesture recignition function, and the contol method
JP2002120184A (en) Robot operation control system on network
JP6558764B2 (en) Telepresence robot
US11743574B2 (en) System and method for AI enhanced shutter button user interface
CN113498029B (en) Interactive broadcast
CN104932695B (en) Message input device and data inputting method
JP5076081B2 (en) Group state estimation system, group attention control system, and active sensing system
Jeon et al. A multimodal ubiquitous interface system using smart phone for human-robot interaction
CN113590014B (en) Elevator calling method and device based on gesture action and computer equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20110831

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20120831

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee