KR100757500B1 - System and method for interfacing between human and service robot based on action - Google Patents
System and method for interfacing between human and service robot based on action Download PDFInfo
- Publication number
- KR100757500B1 KR100757500B1 KR1020060043107A KR20060043107A KR100757500B1 KR 100757500 B1 KR100757500 B1 KR 100757500B1 KR 1020060043107 A KR1020060043107 A KR 1020060043107A KR 20060043107 A KR20060043107 A KR 20060043107A KR 100757500 B1 KR100757500 B1 KR 100757500B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- robot
- situation
- command
- user
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
Abstract
본 발명은 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 관한 것으로 사용자가 간단한 동작으로 로봇 등을 제어할 수 있는 신호를 송신하고 송신된 신호를 상황에 맞는 개별동작으로 인식하여 기설정된 동작, 명령 해석표를 이용하여 상황과 응용에 맞는 명령으로 해석하여 로봇을 작동하도록 구성함으로써 다양한 동작에 기반하여 신속하게 로봇과 사람이 인터페이스 할 수 있는 효과가 있다. The present invention relates to a motion-based interface system and method between a service robot and a person, and transmits a signal for a user to control a robot, etc. with a simple operation, and recognizes the transmitted signal as an individual motion suitable for a situation. By using the command interpretation table to interpret the command according to the situation and application to configure the robot to operate, there is an effect that the robot and human can quickly interface based on various movements.
로봇, 인터페이스, 신경망, 동작 Robot, interface, neural network, motion
Description
도 1은 본 발명에 의한 동작기반 인터페이스 시스템을 개략적으로 나타내는 블록도,1 is a block diagram schematically illustrating an operation-based interface system according to the present invention;
도 2는 본 발명에 의한 동작신호입력부의 구성을 나타내는 블록도,2 is a block diagram showing a configuration of an operation signal input unit according to the present invention;
도 3은 본 발명에 의한 동작인식부, 명령해석부와 상황관리부의 구성을 나타내는 블록도,3 is a block diagram showing the configuration of an operation recognition unit, an instruction analysis unit and a situation management unit according to the present invention;
도 4는 본 발명에 의한 로봇 응용 소프트웨어의 구성을 나타내는 도면,4 is a diagram showing the configuration of robot application software according to the present invention;
도 5는 본 발명에 의한 동작기반 인터페이스 방법을 개략적으로 나타내는 흐름도이다. 5 is a flowchart schematically illustrating an operation-based interface method according to the present invention.
<도명의 주요 부분에 대한 부호의 설명><Description of the code for the main part of the figure>
100:동작신호입력부 200:동작인식부100: operation signal input unit 200: operation recognition unit
230:신경망 240:신경망선택기230: neural network 240: neural network selector
300:명령해석부 320:동작명령해석표300: command analysis unit 320: operation command analysis table
400:상황관리부 410:관리부400: situation management unit 410: management unit
500:로봇 600:영상출력장치500: robot 600: video output device
700:음성출력장치 800:로봇응용 소프트웨어700: voice output device 800: robot application software
본 발명은 서비스 로봇과 사용자 사이의 인터페이스에 관한 것으로, 더욱 상세하게는 사용자로부터 인식된 동작을 기초로 신속하게 연산작용을 수행하여 사용자와 서비스 로봇이 상호작용을 할 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 관한 것이다.The present invention relates to an interface between a service robot and a user. More particularly, the present invention relates to an interface between a service robot and a person, in which a user and a service robot can interact by performing a calculation operation on the basis of a motion recognized by the user. It relates to a motion-based interface system and method.
로봇이 기존의 정보기기와 구별되는 것은 이동을 할 수 있는 구동장치, 물건을 들어올릴 수 있는 로봇 팔 그리고 내장된 카메라의 각도를 조절할 수 있는 기계장치 등과 같은 작동장치를 구비하고 있다는 것이다. 이러한 작동장치들은 산업, 군사용 로봇 기술로부터 발전하였다. What distinguishes the robot from conventional information equipment is that it has an operating device such as a driving device that can move, a robot arm that can lift an object, and a mechanism that can adjust the angle of the built-in camera. These actuators have evolved from industrial and military robotics.
일반적으로 산업용, 군사용 로봇은 미리 작성된 프로그램에 따라 동작을 하기 때문에 작동을 시작한 후에는 사용자와 상호작용을 하기 위해 동작을 제어하기가 힘들었다. 하지만, 사람의 편리를 위한 서비스 로봇은 사용자의 다양한 요구에 적합하게 대응할 수 있는 지능적인 작업수행과 사용자와의 상호작용이 필요하게 되었다. 또한, 최근의 서비스 로봇은 컴퓨터와 유사한 다양한 기능을 구비하고 있기 때문에 컴퓨터 소프트웨어가 제공하는 GUI와 유사한 상호작용방법이 필요하게 되었 다. 그래서 이러한 필요성을 만족시켜 사용자와 서비스 로봇의 상호작용을 수행할 수 있는 다양한 사용자 인터페이스 장치가 고안되어 서비스 로봇에 장착되고 있다. In general, industrial and military robots operate according to a pre-written program, so it is difficult to control the movement to interact with the user after the operation is started. However, service robots for the convenience of humans require intelligent work performance and interaction with users that can respond appropriately to various needs of users. In addition, recently, service robots have various functions similar to those of computers, and thus, a interaction method similar to GUIs provided by computer software is required. Thus, various user interface devices are devised and installed in the service robot to satisfy the needs and to perform interaction between the user and the service robot.
로봇과 사용자 사이의 인터페이스 장치는 크게 출력장치, 입력장치, 양방향장치로 나눌 수 있다. The interface device between the robot and the user can be broadly divided into an output device, an input device, and a bidirectional device.
출력장치는 주로 영상과 음성을 이용하여 정보를 출력하였다. 영상출력장치는 로봇에 장착을 하기 위해 로봇 내부에 많은 공간이 필요하고 또한 전력이 많이 소비되는 문제와 출력된 영상을 이용하기 위해서는 사용자와의 거리가 근접해야 하는 문제가 있었다. The output device mainly outputs information using video and audio. The image output device requires a lot of space inside the robot to be mounted on the robot, and also consumes a lot of power and has a problem in that the distance from the user must be close to use the output image.
음성출력장치는 영상출력장치에 비해 공간과 소비전력 측면에서 이점이 있고 최근 음성합성기술을 활용하여 사용자에게 음성으로 정보를 전달하는 기능이 있어 많이 채택되고 있다. The audio output device has advantages in terms of space and power consumption compared to the video output device, and has recently been adopted because it has a function of delivering information to the user using voice synthesis technology.
로봇의 내부에 존재하는 입력 인터페이스 장치로는 다양한 단추나 터치스크린이 있다. 하지만, 단추와 터치스크린을 이용하여 정보를 입력하기 위해서는 사용자와 로봇이 상당히 근접한 위치에 있어야 하는 문제가 있다. Input interface devices existing inside the robot include various buttons or touch screens. However, in order to input information using a button and a touch screen, there is a problem that the user and the robot must be in a very close position.
리모컨, 무선 마우스, 무선 키보드를 이용하여 무선으로 로봇에 명령을 주는 방법은 다양한 기능을 수행하려고 하는 경우에 장치가 크고 무겁게 되어 휴대성이 떨어지는 문제가 있다. A method of wirelessly giving a command to a robot by using a remote controller, a wireless mouse, and a wireless keyboard has a problem in that the device becomes large and heavy when it is trying to perform various functions, and thus the portability is poor.
최근에 카메라를 통한 영상을 입력하는 경우에 영상 인식 소프트웨어를 활용하여 사용자의 얼굴과 동작을 인식할 수 있지만 카메라의 특성상 입력범위에 있어서 공간적, 광학적 제약이 있어 사용자 등이 카메라의 범위에 위치해야하는 불편함 과 영상 인식 기술을 동적 환경에 응용하는 것에 기술적으로 한계가 있다는 문제가 있다. In case of inputting the image through the camera recently, it is possible to recognize the user's face and motion by using image recognition software. However, due to the characteristics of the camera, there is spatial and optical limitation in the input range. There is a problem that there is a technical limitation in applying image recognition technology to dynamic environment.
마이크를 이용하여 음성을 입력하는 경우에는 음성 인식 소프트웨어와 음성합성기(TTS)를 활용하여 로봇과 사용자 사이에 명령을 전달하거나 대화를 하는 상호작용이 이루어질 수 있지만 오인식 문제로 자연스러운 대화를 기대하기 어렵다는 문제가 있다. In case of inputting voice using a microphone, voice recognition software and voice synthesizer (TTS) can be used to communicate commands or communicate between the robot and the user, but it is difficult to expect a natural conversation due to a misunderstanding problem. There is.
최근의 이동형 서비스 로봇은 최소한의 기능을 제외하고 여러가지 기능들을 외부로 분리하여 네트워크를 통해 기능을 제공받도록 하는 추세이다. 이러한 네트워크를 이용하는 방법은 가격을 낮추고 로봇의 소비전력을 줄일 수 있는 효과가 있다. 하지만 네트워크 기반 로봇은 자체적으로 영상 인식이나 음성인식을 처리하지 못하기 때문에 필요한 경우마다 원격으로 서버에 처리를 요청해야하는 불편함과 간단한 상호작용에도 카메라나 마이크와 같은 입력장치의 제한된 입력범위로 이동해야하고 입력한 후에도 지연과 오인식으로 인해 사용자가 불편을 겪어야 하는 문제가 있다. In recent years, mobile service robots tend to provide functions through a network by separating various functions to the outside except the minimum functions. Using this network has the effect of lowering the price and power consumption of the robot. However, since network-based robots cannot handle image recognition or voice recognition on their own, they must move to the limited input range of input devices such as cameras or microphones even in the inconvenience and inconvenience of having to request processing from a remote server whenever necessary. Even after inputting, there is a problem that the user must experience inconvenience due to delay and misrecognition.
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 사용자의 동작을 입력신호로 감지하여 상황에 맞게 설정되어 있는 개별동작으로 인식하여 신속한 연산에 의해 명령을 출력하여 사용자와 로봇이 상호작용할 수 있도록 하여 입력장치와 사용자 사이의 거리 제약이 없이 간 단한 연산에 의해 신속하게 인터페이스 할 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법을 제공한다.Accordingly, the present invention has been made to solve the above problems of the prior art, an object of the present invention is to detect the user's motion as an input signal to recognize the individual operation is set according to the situation to output the command by rapid operation The present invention provides a motion-based interface system and method between a service robot and a person that can be quickly interfaced by a simple operation without limiting the distance between the input device and the user by allowing the user and the robot to interact.
한편, 본 발명의 다른 목적은 신호를 감지할 수 있는 장치를 사용자가 직접 장착을 할 수 있어 입력범위에 제약이 없을 뿐만 아니라 가볍게 휴대를 할 수 있고 또한 로봇과 로봇 응용에 따른 상황에 적합하게 개별적인 동작을 인식하여 그에 맞는 명령을 기 등록된 해석표에 의해 신속하게 처리할 수 있어 다양한 상호작용을 할 수 있고 사용자의 동작에 대한 인식률을 높일 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법을 제공한다. On the other hand, another object of the present invention is that the user can directly mount the device that can detect the signal is not limited to the input range and can be carried lightly and also suitable for the situation according to the robot and robot applications Motion-based interface system and method between service robot and human being that can recognize various motions and process the corresponding commands quickly by using the registered analysis table to enable various interactions and increase the recognition rate of user's motions To provide.
상기와 같은 목적을 달성하기 위한 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력부와 상기 동작신호입력부로부터 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 동작인식부와 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석부와 상기 명령해석부를 통해 전달된 명령에 포함된 정보에 따라 작동을 하는 로봇 및 로봇응용을 포함하여 이루어지는 것을 특징으로 한다. An operation-based interface system between a service robot and a person of the present invention for achieving the above object is a motion signal input unit and a motion signal input unit for detecting a user's motion as a signal through a motion sensor and transmitting the detected signal. Received signal transmitted from the motion recognition unit for interpreting the signal to recognize the individual operation according to the situation and the command interpretation unit for interpreting the recognized individual operation as a command suitable for the situation and application and the command interpreter Characterized in that it comprises a robot and robot applications that operate according to the information contained in the command.
이때, 동작인식부와 명령해석부는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 한다.At this time, the operation recognition unit and the command analysis unit is characterized in that it is controlled by the situation management unit for managing and transmitting the situation according to the robot application.
한편, 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 방법은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 단계와 상기 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 단계와 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 단계와 상기 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용이 작동하는 단계를 포함하여 이루어지는 것을 특징으로 한다. On the other hand, the motion-based interface method between the service robot and the person of the present invention detects the user's motion as a signal through a motion sensor, and transmitting the detected signal and receiving the transmitted signal and interpret the signal Including the step of recognizing the individual motion in accordance with the situation, the step of interpreting the recognized individual motion as a command suitable for the situation and application, and the operation of the robot and the robot application according to the information included in the interpreted command. It features.
이때, 개별동작으로 인식하는 단계와 명령으로 해석하는 단계는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 한다. At this time, the step of recognizing the individual operation and the step of interpreting the command is characterized in that it is controlled by the situation management unit for managing and transmitting the situation according to the robot application.
이하, 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, a motion-based interface system and a method between a service robot and a person of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 의한 동작기반 인터페이스 시스템을 개략적으로 나타내는 블록도이다. 1 is a block diagram schematically illustrating an operation-based interface system according to the present invention.
본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템은 사용자의 동작을 감지하여 감지된 신호를 송신하는 동작신호입력부(100), 감지된 신호를 해석하여 개별동작으로 인식하는 동작인식부(200), 인식된 개별동작을 상황에 맞는 적당한 명령으로 해석하는 명령해석부(300), 로봇의 응용에 따라 상황을 관리 및 전달하여 동작인식부(200)와 명령해석부(300)를 제어하는 상황(context)관리부(400), 사용자의 동작으로부터 생성된 명령에 따라 로봇(500), 영상출력장 치(600), 음성출력장치(700)를 작동하는 로봇응용 소프트웨어(800)를 구비하여 이루어져 있다. The motion-based interface system between a service robot and a person of the present invention detects a user's motion and transmits a detected signal to the motion
도 2는 본 발명에 의한 동작 신호 입력부의 구성을 나타내는 불록도이다. 2 is a block diagram showing the configuration of an operation signal input unit according to the present invention.
동작신호입력부(100)는 사용자의 동작을 감지하여 감지된 신호를 동작인식부(200)로 송신한다. The motion
동작신호입력부(100)는 사용자의 동작을 감지하는 동작센서장치(101), 감지된 신호를 임시저장하거나 장치 및 사용자의 식별자(ID)를 저장하는 메모리장치(103), 감지된 신호를 적당히 가공하여 무선송수신부(104)에 제공하는 제어장치(102), 제공된 감지 신호를 동작인식부(200)로 송신하는 무선송수신부(104)를 구비하여 이루어진다. The operation
또한 동작신호입력부(100)는 전원을 공급하는 전원부(106)와 사용자가 착용할 수 있도록 형성된 패키지 및 착용부(105)를 구비한다. In addition, the operation
동작센서장치(101)는 사용자의 동작을 감지하여 신호를 출력하는 부분이다. 동작센서장치(101)는 사용자의 동작을 감지할 수 있는 다양한 센서를 다수 사용할 수 있고 바람직하게는 3축 관성 센서(가속도 센서)가 사용된다. The
제어장치(102)는 동작센서장치(101)로부터 출력된 신호를 수집하여 적당히 가공하여 무선송수신부(104)를 통해 동작인식부(200)로 전달한다. The
메모리장치(103)는 제어장치(102)에서 가공된 신호를 임시 저장하거나, 장치 및 사용자의 식별자(ID)를 저장하여 제어장치(102)에 의해 필요한 정보를 이용할 수 있도록 내장된다. The
메모리장치(103)에 저장되어 있는 장치 및 사용자 식별자(ID)는 동작신호입력부(100)를 착용하고 있는 사용자의 위치를 파악하거나 현재 장치나 사용자에 관한 기본적인 정보를 파악할 필요가 있는 경우에 제어장치(102)를 통해 이용된다. The device and the user identifier (ID) stored in the
무선송수신부(104)는 제어장치(102)에 의해 가공된 신호를 동작인식부(200)에 송신한다. 또한 무선송수신부(104)는 필요한 경우에 장치 및 사용자에 관한 정보 요청을 포함하는 신호를 수신하고 그에 관련된 정보를 송신하는 기능도 한다. The radio transmitter /
패키지 및 착용부(105)는 사용자가 착용할 수 있는 형태로 이루어지고 착용부(105)의 형태와 크기는 세부 부품의 선택에 의해 결정된다. 착용할 수 있는 형태로는 신체의 다양한 곳에 착용이 가능하고 대표적인 예로 반지와 같은 착용형태를 이용할 수 있다. The package and the wearing
도 3은 본 발명에 의한 동작인식부, 명령해석부와 상황관리부의 구성을 나타내는 블록도이다.3 is a block diagram showing the configuration of an operation recognition unit, an instruction analysis unit and a situation management unit according to the present invention.
동작인식부(200)는 동작신호입력부(100)로부터 송신된 신호를 수신하는 무선송수신부(210), 수신된 신호의 동작 데이터를 해석하여 개별동작으로 인식하는 인식장치(220), 인식장치(220)가 신호를 개별동작으로 인식하는 과정에서 사용되고 사용자와 로봇응용에 따라 다양하게 존재하는 학습된 신경망(330), 학습된 다양한 신경망(330) 중에서 상황관리부(400)의 제어명령에 따라 필요한 신경망(230)을 선택하는 신경망선택기(240)로 이루어진다. The
신경망(230)은 사용자 및 로봇 응용에 따라 다양하게 존재하고 각 신경망(230)은 학습 알고리즘에 의해 구성될 수 있다. 예를 들어 위에서 아래로 내리는 동작이 있는 경우에 방향인식 신경망은 동작신호를 해당 방향으로 인식하지만, 숫자인식 신경망은 숫자 1로 인식하게 된다. The
신경망선택기(240)는 상황관리부(400)의 제어명령에 따라 필요한 신경망(230)을 선택한다. 신경망선택기(240)는 상황관리부(400)에 등록되어 있는 로봇 및 로봇응용 등의 다양한 상황에 따라서 미리 학습되어 준비된 신경망을 선택하여 로드시킨다. The
동작인식부(200)가 수신한 신호를 개별동작으로 인식하는 방법은 신경망을 이용한 방법 외에 다른 소프트 컴퓨팅 기법(인공지능기법)을 사용하여 인식장치(220)를 구성할 수도 있다. 하지만 간단한 동작을 한 번씩 입력하여 다양한 동작을 인식하는 경우에는 학습된 신경망을 이용하는 것이 바람직하다. 신경망을 이용한 동작인식부(200)는 동작 신호에 대해 사칙연산 수준의 간단한 산술 연산으로 구성되기 때문에 영상 및 음성 인식에 비해서 간단하고 계산이 빠르다. In the method of recognizing the signal received by the
명령해석부(300)는 동작인식부(200)의 인식결과를 이용하여 로봇응용소프트웨어(800)에 로봇(500), 영상출력장치(600), 음성출력장치(700)를 통해 동작하거나 출력되는 정보를 포함하는 명령을 전달한다. 명령해석부(300)는 개별적인 동작에 대응되는 상황에 맞는 명령에 관한 데이터 정보를 포함하는 동작, 명령 해석표(320)와 상황관리부(400)의 제어에 의해 동작, 명령 해석표(320)를 선택하는 해 석표선택(330)부분 그리고 상항 관리기(400)를 통해 선택된 동작, 명령 해석표(320)를 바탕으로 현재 상황과 응용에 맞는 명령을 생성하여 최종적으로 로봇(500)이나 로봇응용소프트웨어(800)로 전달하는 명령해석장치(310)로 구성된다.The
다만, 명령해석부(300)의 동작, 명령 해석표(320)와 해석표선택(330)은 상황관리부(400)에 등록된 동작, 명령 해석표(320)와 관리부(410)의 제어에 의해 해석표선택(330)이 이루어질 수 있다. However, the operation of the
상황관리부(400)는 현재 가용하거나 선택된 응용에 따라 동작 인식부(200)와 명령해석부(300)를 제어한다. The
상황(context)관리부(400)는 크게 관리부(410), 사용자(user)상황부(420), 응용(application)상황부(430), 환경(environment)상황부(440) 그리고 로봇(robot)상황부(450)로 분류되어 상황을 수집하고 관리하게 된다. The
사용자(user)상황부(420)는 사용자의 아이디, 응용 별 선호사항, 신경망 특징에 관한 사항을 기록하고 있다. The
응용(application)상황부(430)와 로봇(robot)상황부(450)는 외부에서 공개되어 있는 제어명령, 상태를 기록하고 있다. The
로봇(500)과 로봇 응용 소프트웨어(800)에 전달되는 명령을 해석하기 위해 관련 동작, 명령 해석표를 응용상황부(430)에 등록할 수 있다. In order to interpret a command transmitted to the
상황관리부(400)는 등록되어 있는 응용 상황이 되면 등록된 해석표에서 적당한 해석표를 선택하고 이에 따라 명령해석장치(310)는 명령을 생성한다. The
명령의 형식은 시스템 구현 방법에 따라 달라질 수 있는데 메시지 형식이 바람직하다. 예를 들어, "앞으로 누르기 동작"은 화면 출력기상에 출력된 단추를 누르는 동작으로 해석되어 "누르기" 메시지를 생성하여 로봇 응용 소프트웨어(800)에 전달한다. 또는 "반복해서 위 아래로 흔들기" 동작은 로봇의 움직임을 정지시키기 위한 동작으로 "정지" 메시지를 생성하여 로봇 응용 소프트웨어(800)에 전달한다. The format of the command can vary depending on how the system is implemented. The message format is preferred. For example, a "forward push" action is interpreted as a push of a button output on the screen output to generate a "press" message and pass it to the
환경(environment)상황부(440)는 로봇 및 응용이 이용 가능한 영상 및 음성 출력장치의 상세정보를 기록하고 있다. The
구체적인 상황 정보는 필요에 의해 추가될 수 있도록 관리된다. 이렇게 상황 정보를 필요에 의해 추가하기 위해서는 형식과 내용이 분리된 XML 방식을 사용하는 것이 바람직하다.Specific situation information is managed to be added as needed. In order to add situational information as necessary, it is desirable to use an XML method having a format and a content separated.
로봇 응용 소프트웨어(800)는 명령해석부(300)에서 생성된 명령을 이용하여 로봇(500)의 동작을 제어하거나 영상출력장치(600), 음성출력장치(700)에 관련 정보를 출력한다. The
로봇(500)과 로봇 응용 소프트웨어(800)는 사용자의 동작으로부터 발생된 동작을 바탕으로 명령을 수행한다. 로봇(500)은 영상 및 음성 인식 기반 인터페이스와 같은 기존의 인터페이스 장치를 가질 수 있다. 로봇 응용 소프트웨어(800)도 기존의 인터페이스와 본 발명의 동작 기반 인터페이스를 함께 사용할 수 있다. The
로봇(500)과 로봇 응용 소프트웨어(800)는 영상 출력장치(700)와 음성 출력장치(700)를 사용하여 상호작용에 필요한 정보를 사용자에게 주는 것이 바람직하 다. 이는 현재 사용할 수 있는 모든 동작을 모두 외울 수 없기 때문에 영상출력장치(600)와 음성출력장치(700)를 통해 이를 알려주는 것이 바람직하다. 또한 입력된 동작의 내용을 확인하고 오인식 결과를 영상, 음성출력장치(600,700)를 통해 사용자가 확인하도록 하는 것이 바람직하다. The
도 4는 본 발명에 의한 로봇 응용 소프트웨어의 구성을 나타내는 도면이다. 4 is a diagram showing the configuration of the robot application software according to the present invention.
로봇 응용 소프트웨어(800)는 명령해석부(300)로부터 생성된 명령을 받아서 응용로직부(810)에 의해 명령에 포함된 정보를 분석하여 로봇(820)을 제어하는 제어정보(820), 영상출력장치(600)를 통해 출력되는 영상정보(830)와 음성출력장치(700)를 통해 출력되는 음성정보(840)로 분류하여 각각의 로봇(500), 영상출력장치(600), 음성출력장치(700)에 관련정보를 제공한다.The
로봇(500)은 제어정보(820)에 의한 동작을 수행한다. 로봇(500)은 로봇 응용 소프트웨어(800)를 통해 제어정보를 받을 수 있지만 또 다른 방법으로 명령해석부(300)로부터 명령을 직접 받아서 이에 포함된 제어정보를 이용하여 직접 동작을 수행할 수 있다.The
영상출력장치(600)와 음성출력장치(700)는 명령으로부터 생성된 영상정보(830)와 음성정보(840)를 출력하고 사용자는 출력내용을 확인하여 입력된 동작에 의한 결과를 확인하여 오인식 여부를 확인할 수 있다. The
도 5는 본 발명에 의한 동작기반 인터페이스 방법을 개략적으로 나타내는 흐 름도이다.5 is a flowchart schematically showing an operation-based interface method according to the present invention.
서비스 로봇과 사람 사이의 동작기반 인터페이스 방법은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력단계(S100)와 송신된 신호를 수신하고 수신된 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 개별동작인식단계(S200)와 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석단계(S300) 그리고 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용을 작동하는 로봇 및 로봇응용 작동단계(S400)를 포함하여 이루어지는 것을 특징으로 한다. The motion-based interface method between a service robot and a person detects a user's motion as a signal through a motion sensor, receives an operation signal input step S100 for transmitting the detected signal, and receives a transmitted signal and interprets the received signal. Recognition step (S200) for recognizing the individual motion according to the situation and the command interpretation step (S300) for interpreting the recognized individual motion as a command suitable for the situation and application and the robot and the robot according to the information contained in the interpreted command The robot and the robot application operation step (S400) for operating the application is characterized in that it is made.
개별동작인식단계(S200)와 명령해석단계(S300)는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어된다. Individual motion recognition step (S200) and command interpretation step (S300) is controlled by the situation management unit for managing and transmitting the situation according to the robot application.
개별동작인식단계(S200)는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력단계(S100)로부터 수신한 신호를 개별동작으로 인식한다. Individual motion recognition step (S200) recognizes the signal received from the motion signal input step (S100) as a separate motion through the neural network selected by the context manager based on a plurality of neural networks learned for the application and the user.
명령해석단계(S300)는 개별동작인식단계(S200)에 의한 인식결과와 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 로봇장치의 응용에 적합한 명령으로 해석하여 전달한다.Command interpreting step (S300) is interpreted according to the result of the recognition by the individual motion recognition step (S200), the operation provided from the situation manager, command analysis table, and transmits the motion as a command suitable for the application of the robot apparatus.
로봇 및 로봇응용 작동 단계(S400)는 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공한다.Robot and robot application operation step (S400) provides the user with information necessary for interaction by the image output device and the audio output device.
동작신호입력단계(S100)는 사용자가 장착한 장치에 의해 이루어진다. The operation signal input step S100 is performed by a device mounted by a user.
본 발명의 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법에 의해 동작을 기반으로 로봇과 사람이 인터페이스 하는 방법에 대한 간단한 응용 시나리오를 설명한다. 시나리오는 거실 소파에 앉아 있는 사용자가 동작신호입력부(100)를 착용하고 있다가 집안 어딘가에 있는 로봇을 호출하는 것이다. A simple application scenario for a method of interfacing a robot and a person based on the motion by the motion-based interface system and method between the service robot and the person of the present invention will be described. The scenario is that a user sitting on a living room sofa calls the robot somewhere in the house while wearing the motion
사용자는 동작신호입력부(100)(예를 들면, 반지)를 착용한 손으로 미리 정의된 동작을 수행한다. 예를 들어, 세 번 빠르게 흔들기 동작을 시행한다. 이때 발생한 동작신호는 동작센서장치(101)에 의해 감지되어 무선송수신부(104)를 통해 동작인식부(200)로 전달된다. The user performs a predefined operation with a hand wearing the operation signal input unit 100 (eg, a ring). For example, shake three times quickly. The operation signal generated at this time is sensed by the
상황관리부(400)는 현재 로봇(500)이 대기 상황이기 때문에 동작인식부(200)에 미리 학습되어 준비된 대기 상황용 신경망(230)을 로드시킨다. 동작인식부(200)는 이 대기 상황용 신경망을 통해 세 번 빠르게 흔들기가 인식되었다고 인식하고 그 결과를 명령해석부(300)에 전달한다. The
상황관리부(400)는 대기 상황에 맞는 동작, 명령 해석표(320)를 명령해석부(300)에 로드하고, 명령해석부(300)는 동작, 명령 해석표(320)를 이용해 대기 상황에서 "세 번 빠르게 흔들기" 동작은 "로봇 호출"이라는 명령으로 해석하여 "로봇 호출"이라는 명령을 생성한다. The
생성된 명령은 로봇 시스템이나 다른 응용에서 제공하는 "어디에 있는 누구"라는 인수와 함께 로봇에게 전달되고, 로봇은 호출한 사용자에게로 다가가게 된다. 이때, 사용자가 장착하고 있는 동작신호입력부(100)의 메로리장치(103)에 저장되어 있는 장치 및 사용자 식별(ID)을 이용하여 사용자의 위치를 파악하여 사용자에게 다가간다. The generated command is passed to the robot with the argument "who is where" provided by the robotic system or other application, and the robot approaches the calling user. At this time, by using the device and the user identification (ID) stored in the
영상출력장치(600)가 이용되고 있는 경우라면 현재 입력 가능한 동작과 그 결과를 영상출력장치(600)를 통해 사용자에게 보여 줄 수 있다. 예를 들면, 사용자의 거실 TV가 로봇 응용 소프트웨어(800)와 연동하여 영상출력정보를 출력할 수 있다.If the
이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. Although the present invention has been described in more detail with reference to some embodiments, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention.
상술한 바와 같이, 본 발명에 따른 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법은 사용자의 동작을 인식하여 상황에 맞는 명령을 출력하여 로봇이 동작함으로써 입력장치와 사용자 사이에 거리 제약이 없고, 동작신호입력부를 사용자가 직접 장착하여 동작을 감지할 수 있어 입력범위에 제한이 없는 효과가 있다. As described above, the motion-based interface system and method between a service robot and a person according to the present invention recognizes the user's motion and outputs a command suitable for a situation, thereby operating a robot, thereby eliminating a distance restriction between the input device and the user. The user can directly mount the operation signal input unit to detect the operation, thereby providing an effect that the input range is not limited.
또한 본 발명에 따른 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법은 학습된 신경망에 의해 개별동작을 인식할 수 있기 때문에 연산작용을 신속하게 처리할 수 있고 상황에 맞는 동작, 명령 해석표를 이용하여 다양한 명령을 인식하고 또한 출력장치에 의해 오인식 여부를 사용자가 직접 확인할 수 있는 효과가 있다. In addition, the motion-based interface system and method between the service robot and the person according to the present invention can recognize the individual motion by the learned neural network, so that it is possible to quickly process arithmetic operations and use the motion and command interpretation table according to the situation. By recognizing a variety of commands and also by the output device there is an effect that the user can directly check whether or not.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060043107A KR100757500B1 (en) | 2005-12-08 | 2006-05-12 | System and method for interfacing between human and service robot based on action |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050119723 | 2005-12-08 | ||
KR20050119723 | 2005-12-08 | ||
KR1020060043107A KR100757500B1 (en) | 2005-12-08 | 2006-05-12 | System and method for interfacing between human and service robot based on action |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070061078A KR20070061078A (en) | 2007-06-13 |
KR100757500B1 true KR100757500B1 (en) | 2007-09-11 |
Family
ID=38357012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060043107A KR100757500B1 (en) | 2005-12-08 | 2006-05-12 | System and method for interfacing between human and service robot based on action |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100757500B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101048406B1 (en) * | 2008-12-17 | 2011-07-11 | 한국전자통신연구원 | Game system and method for recognizing user posture as user command |
KR20190076380A (en) * | 2017-12-22 | 2019-07-02 | 한국전자통신연구원 | Apparatus and method for detecting action based on multi-modal |
US10867236B2 (en) | 2016-04-15 | 2020-12-15 | Samsung Electronics Co., Ltd. | Interface neural network |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100927950B1 (en) * | 2008-02-29 | 2009-11-23 | 주식회사 케이티 | Robot behavior control system using robot script and its robot |
KR100982164B1 (en) * | 2008-12-18 | 2010-09-14 | 한양대학교 산학협력단 | Method and device for recognition of human activity based on activity theory |
US10466795B2 (en) | 2013-03-29 | 2019-11-05 | Lg Electronics Inc. | Mobile input device and command input method using the same |
KR101628482B1 (en) | 2014-09-18 | 2016-06-21 | 현대자동차주식회사 | System for detecting motion using analysis of radio signal in vehicel and method thereof |
US10081106B2 (en) | 2015-11-24 | 2018-09-25 | X Development Llc | Safety system for integrated human/robotic environments |
KR20170070414A (en) | 2015-12-14 | 2017-06-22 | 현대자동차주식회사 | Wearable robot device and controlling method of the same |
WO2017133781A1 (en) * | 2016-02-05 | 2017-08-10 | Abb Schweiz Ag | Controlling an industrial robot using interactive commands |
CN107322592B (en) * | 2017-06-15 | 2021-03-12 | 重庆柚瓣科技有限公司 | Intelligent control method for endowment robot |
KR102131097B1 (en) * | 2018-10-15 | 2020-07-07 | 호남대학교 산학협력단 | Robot control system and robot control method using the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010074568A (en) * | 2001-05-08 | 2001-08-04 | 이중호 | The acceleration sensing motion sensor and Method for sensing therof |
EP1136193A2 (en) | 2000-03-21 | 2001-09-26 | Sony Corporation | Humanoid robot communicating with body language |
KR20040014123A (en) * | 2002-08-06 | 2004-02-14 | 윤재민 | Emotion and Motion Extracting System of Virtual Human and its Method |
-
2006
- 2006-05-12 KR KR1020060043107A patent/KR100757500B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1136193A2 (en) | 2000-03-21 | 2001-09-26 | Sony Corporation | Humanoid robot communicating with body language |
KR20010074568A (en) * | 2001-05-08 | 2001-08-04 | 이중호 | The acceleration sensing motion sensor and Method for sensing therof |
KR20040014123A (en) * | 2002-08-06 | 2004-02-14 | 윤재민 | Emotion and Motion Extracting System of Virtual Human and its Method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101048406B1 (en) * | 2008-12-17 | 2011-07-11 | 한국전자통신연구원 | Game system and method for recognizing user posture as user command |
US10867236B2 (en) | 2016-04-15 | 2020-12-15 | Samsung Electronics Co., Ltd. | Interface neural network |
KR20190076380A (en) * | 2017-12-22 | 2019-07-02 | 한국전자통신연구원 | Apparatus and method for detecting action based on multi-modal |
KR102241705B1 (en) | 2017-12-22 | 2021-04-19 | 한국전자통신연구원 | Apparatus and method for detecting action based on multi-modal |
Also Published As
Publication number | Publication date |
---|---|
KR20070061078A (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100757500B1 (en) | System and method for interfacing between human and service robot based on action | |
US11543887B2 (en) | User interface control of responsive devices | |
EP3387628B1 (en) | Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection | |
JP7243110B2 (en) | Information processing device and information processing method, computer program, and package reception support system | |
EP2778865A2 (en) | Input control method and electronic device supporting the same | |
CN112771478A (en) | Neuromuscular control of physical objects in an environment | |
US20120268580A1 (en) | Portable computing device with intelligent robotic functions and method for operating the same | |
US20090157221A1 (en) | Robotic system, robot and mobile phone | |
JP2007190659A (en) | Robot remote operation system | |
KR102288658B1 (en) | Robot and its control method | |
KR20130060952A (en) | Remote control system for service robot | |
CN109048932A (en) | A kind of intellect service robot system | |
Corradini et al. | A map-based system using speech and 3D gestures for pervasive computing | |
WO2018117514A1 (en) | Airport robot and movement method therefor | |
JP2007160427A (en) | Robot control system | |
KR20190106925A (en) | Ai robot and the control method thereof | |
KR20140022654A (en) | Cleaning robot for having gesture recignition function, and the contol method | |
JP2002120184A (en) | Robot operation control system on network | |
JP6558764B2 (en) | Telepresence robot | |
US11743574B2 (en) | System and method for AI enhanced shutter button user interface | |
CN113498029B (en) | Interactive broadcast | |
CN104932695B (en) | Message input device and data inputting method | |
JP5076081B2 (en) | Group state estimation system, group attention control system, and active sensing system | |
Jeon et al. | A multimodal ubiquitous interface system using smart phone for human-robot interaction | |
CN113590014B (en) | Elevator calling method and device based on gesture action and computer equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Publication of correction | ||
FPAY | Annual fee payment |
Payment date: 20110831 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20120831 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |