KR20070061078A - 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법 - Google Patents

서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법 Download PDF

Info

Publication number
KR20070061078A
KR20070061078A KR1020060043107A KR20060043107A KR20070061078A KR 20070061078 A KR20070061078 A KR 20070061078A KR 1020060043107 A KR1020060043107 A KR 1020060043107A KR 20060043107 A KR20060043107 A KR 20060043107A KR 20070061078 A KR20070061078 A KR 20070061078A
Authority
KR
South Korea
Prior art keywords
motion
robot
command
user
situation
Prior art date
Application number
KR1020060043107A
Other languages
English (en)
Other versions
KR100757500B1 (ko
Inventor
이주행
심재철
손종무
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060043107A priority Critical patent/KR100757500B1/ko
Publication of KR20070061078A publication Critical patent/KR20070061078A/ko
Application granted granted Critical
Publication of KR100757500B1 publication Critical patent/KR100757500B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 관한 것으로 사용자가 간단한 동작으로 로봇 등을 제어할 수 있는 신호를 송신하고 송신된 신호를 상황에 맞는 개별동작으로 인식하여 기설정된 동작, 명령 해석표를 이용하여 상황과 응용에 맞는 명령으로 해석하여 로봇을 작동하도록 구성함으로써 다양한 동작에 기반하여 신속하게 로봇과 사람이 인터페이스 할 수 있는 효과가 있다.
로봇, 인터페이스, 신경망, 동작

Description

서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법{SYSTEM AND METHOD FOR INTERFACING BETWEEN HUMAN AND SERVICE ROBOT BASED ON ACTION}
도 1은 본 발명에 의한 동작기반 인터페이스 시스템을 개략적으로 나타내는 블록도,
도 2는 본 발명에 의한 동작신호입력부의 구성을 나타내는 블록도,
도 3은 본 발명에 의한 동작인식부, 명령해석부와 상황관리부의 구성을 나타내는 블록도,
도 4는 본 발명에 의한 로봇 응용 소프트웨어의 구성을 나타내는 도면,
도 5는 본 발명에 의한 동작기반 인터페이스 방법을 개략적으로 나타내는 흐름도이다.
<도명의 주요 부분에 대한 부호의 설명>
100:동작신호입력부 200:동작인식부
230:신경망 240:신경망선택기
300:명령해석부 320:동작명령해석표
400:상황관리부 410:관리부
500:로봇 600:영상출력장치
700:음성출력장치 800:로봇응용 소프트웨어
본 발명은 서비스 로봇과 사용자 사이의 인터페이스에 관한 것으로, 더욱 상세하게는 사용자로부터 인식된 동작을 기초로 신속하게 연산작용을 수행하여 사용자와 서비스 로봇이 상호작용을 할 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 관한 것이다.
로봇이 기존의 정보기기와 구별되는 것은 이동을 할 수 있는 구동장치, 물건을 들어올릴 수 있는 로봇 팔 그리고 내장된 카메라의 각도를 조절할 수 있는 기계장치 등과 같은 작동장치를 구비하고 있다는 것이다. 이러한 작동장치들은 산업, 군사용 로봇 기술로부터 발전하였다.
일반적으로 산업용, 군사용 로봇은 미리 작성된 프로그램에 따라 동작을 하기 때문에 작동을 시작한 후에는 사용자와 상호작용을 하기 위해 동작을 제어하기가 힘들었다. 하지만, 사람의 편리를 위한 서비스 로봇은 사용자의 다양한 요구에 적합하게 대응할 수 있는 지능적인 작업수행과 사용자와의 상호작용이 필요하게 되었다. 또한, 최근의 서비스 로봇은 컴퓨터와 유사한 다양한 기능을 구비하고 있기 때문에 컴퓨터 소프트웨어가 제공하는 GUI와 유사한 상호작용방법이 필요하게 되었 다. 그래서 이러한 필요성을 만족시켜 사용자와 서비스 로봇의 상호작용을 수행할 수 있는 다양한 사용자 인터페이스 장치가 고안되어 서비스 로봇에 장착되고 있다.
로봇과 사용자 사이의 인터페이스 장치는 크게 출력장치, 입력장치, 양방향장치로 나눌 수 있다.
출력장치는 주로 영상과 음성을 이용하여 정보를 출력하였다. 영상출력장치는 로봇에 장착을 하기 위해 로봇 내부에 많은 공간이 필요하고 또한 전력이 많이 소비되는 문제와 출력된 영상을 이용하기 위해서는 사용자와의 거리가 근접해야 하는 문제가 있었다.
음성출력장치는 영상출력장치에 비해 공간과 소비전력 측면에서 이점이 있고 최근 음성합성기술을 활용하여 사용자에게 음성으로 정보를 전달하는 기능이 있어 많이 채택되고 있다.
로봇의 내부에 존재하는 입력 인터페이스 장치로는 다양한 단추나 터치스크린이 있다. 하지만, 단추와 터치스크린을 이용하여 정보를 입력하기 위해서는 사용자와 로봇이 상당히 근접한 위치에 있어야 하는 문제가 있다.
리모컨, 무선 마우스, 무선 키보드를 이용하여 무선으로 로봇에 명령을 주는 방법은 다양한 기능을 수행하려고 하는 경우에 장치가 크고 무겁게 되어 휴대성이 떨어지는 문제가 있다.
최근에 카메라를 통한 영상을 입력하는 경우에 영상 인식 소프트웨어를 활용하여 사용자의 얼굴과 동작을 인식할 수 있지만 카메라의 특성상 입력범위에 있어서 공간적, 광학적 제약이 있어 사용자 등이 카메라의 범위에 위치해야하는 불편함 과 영상 인식 기술을 동적 환경에 응용하는 것에 기술적으로 한계가 있다는 문제가 있다.
마이크를 이용하여 음성을 입력하는 경우에는 음성 인식 소프트웨어와 음성합성기(TTS)를 활용하여 로봇과 사용자 사이에 명령을 전달하거나 대화를 하는 상호작용이 이루어질 수 있지만 오인식 문제로 자연스러운 대화를 기대하기 어렵다는 문제가 있다.
최근의 이동형 서비스 로봇은 최소한의 기능을 제외하고 여러가지 기능들을 외부로 분리하여 네트워크를 통해 기능을 제공받도록 하는 추세이다. 이러한 네트워크를 이용하는 방법은 가격을 낮추고 로봇의 소비전력을 줄일 수 있는 효과가 있다. 하지만 네트워크 기반 로봇은 자체적으로 영상 인식이나 음성인식을 처리하지 못하기 때문에 필요한 경우마다 원격으로 서버에 처리를 요청해야하는 불편함과 간단한 상호작용에도 카메라나 마이크와 같은 입력장치의 제한된 입력범위로 이동해야하고 입력한 후에도 지연과 오인식으로 인해 사용자가 불편을 겪어야 하는 문제가 있다.
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 사용자의 동작을 입력신호로 감지하여 상황에 맞게 설정되어 있는 개별동작으로 인식하여 신속한 연산에 의해 명령을 출력하여 사용자와 로봇이 상호작용할 수 있도록 하여 입력장치와 사용자 사이의 거리 제약이 없이 간 단한 연산에 의해 신속하게 인터페이스 할 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법을 제공한다.
한편, 본 발명의 다른 목적은 신호를 감지할 수 있는 장치를 사용자가 직접 장착을 할 수 있어 입력범위에 제약이 없을 뿐만 아니라 가볍게 휴대를 할 수 있고 또한 로봇과 로봇 응용에 따른 상황에 적합하게 개별적인 동작을 인식하여 그에 맞는 명령을 기 등록된 해석표에 의해 신속하게 처리할 수 있어 다양한 상호작용을 할 수 있고 사용자의 동작에 대한 인식률을 높일 수 있는 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법을 제공한다.
상기와 같은 목적을 달성하기 위한 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력부와 상기 동작신호입력부로부터 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 동작인식부와 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석부와 상기 명령해석부를 통해 전달된 명령에 포함된 정보에 따라 작동을 하는 로봇 및 로봇응용을 포함하여 이루어지는 것을 특징으로 한다.
이때, 동작인식부와 명령해석부는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 한다.
한편, 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 방법은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 단계와 상기 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 단계와 상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 단계와 상기 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용이 작동하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
이때, 개별동작으로 인식하는 단계와 명령으로 해석하는 단계는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 한다.
이하, 본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명에 의한 동작기반 인터페이스 시스템을 개략적으로 나타내는 블록도이다.
본 발명의 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템은 사용자의 동작을 감지하여 감지된 신호를 송신하는 동작신호입력부(100), 감지된 신호를 해석하여 개별동작으로 인식하는 동작인식부(200), 인식된 개별동작을 상황에 맞는 적당한 명령으로 해석하는 명령해석부(300), 로봇의 응용에 따라 상황을 관리 및 전달하여 동작인식부(200)와 명령해석부(300)를 제어하는 상황(context)관리부(400), 사용자의 동작으로부터 생성된 명령에 따라 로봇(500), 영상출력장 치(600), 음성출력장치(700)를 작동하는 로봇응용 소프트웨어(800)를 구비하여 이루어져 있다.
도 2는 본 발명에 의한 동작 신호 입력부의 구성을 나타내는 불록도이다.
동작신호입력부(100)는 사용자의 동작을 감지하여 감지된 신호를 동작인식부(200)로 송신한다.
동작신호입력부(100)는 사용자의 동작을 감지하는 동작센서장치(101), 감지된 신호를 임시저장하거나 장치 및 사용자의 식별자(ID)를 저장하는 메모리장치(103), 감지된 신호를 적당히 가공하여 무선송수신부(104)에 제공하는 제어장치(102), 제공된 감지 신호를 동작인식부(200)로 송신하는 무선송수신부(104)를 구비하여 이루어진다.
또한 동작신호입력부(100)는 전원을 공급하는 전원부(106)와 사용자가 착용할 수 있도록 형성된 패키지 및 착용부(105)를 구비한다.
동작센서장치(101)는 사용자의 동작을 감지하여 신호를 출력하는 부분이다. 동작센서장치(101)는 사용자의 동작을 감지할 수 있는 다양한 센서를 다수 사용할 수 있고 바람직하게는 3축 관성 센서(가속도 센서)가 사용된다.
제어장치(102)는 동작센서장치(101)로부터 출력된 신호를 수집하여 적당히 가공하여 무선송수신부(104)를 통해 동작인식부(200)로 전달한다.
메모리장치(103)는 제어장치(102)에서 가공된 신호를 임시 저장하거나, 장치 및 사용자의 식별자(ID)를 저장하여 제어장치(102)에 의해 필요한 정보를 이용할 수 있도록 내장된다.
메모리장치(103)에 저장되어 있는 장치 및 사용자 식별자(ID)는 동작신호입력부(100)를 착용하고 있는 사용자의 위치를 파악하거나 현재 장치나 사용자에 관한 기본적인 정보를 파악할 필요가 있는 경우에 제어장치(102)를 통해 이용된다.
무선송수신부(104)는 제어장치(102)에 의해 가공된 신호를 동작인식부(200)에 송신한다. 또한 무선송수신부(104)는 필요한 경우에 장치 및 사용자에 관한 정보 요청을 포함하는 신호를 수신하고 그에 관련된 정보를 송신하는 기능도 한다.
패키지 및 착용부(105)는 사용자가 착용할 수 있는 형태로 이루어지고 착용부(105)의 형태와 크기는 세부 부품의 선택에 의해 결정된다. 착용할 수 있는 형태로는 신체의 다양한 곳에 착용이 가능하고 대표적인 예로 반지와 같은 착용형태를 이용할 수 있다.
도 3은 본 발명에 의한 동작인식부, 명령해석부와 상황관리부의 구성을 나타내는 블록도이다.
동작인식부(200)는 동작신호입력부(100)로부터 송신된 신호를 수신하는 무선송수신부(210), 수신된 신호의 동작 데이터를 해석하여 개별동작으로 인식하는 인식장치(220), 인식장치(220)가 신호를 개별동작으로 인식하는 과정에서 사용되고 사용자와 로봇응용에 따라 다양하게 존재하는 학습된 신경망(330), 학습된 다양한 신경망(330) 중에서 상황관리부(400)의 제어명령에 따라 필요한 신경망(230)을 선택하는 신경망선택기(240)로 이루어진다.
신경망(230)은 사용자 및 로봇 응용에 따라 다양하게 존재하고 각 신경망(230)은 학습 알고리즘에 의해 구성될 수 있다. 예를 들어 위에서 아래로 내리는 동작이 있는 경우에 방향인식 신경망은 동작신호를 해당 방향으로 인식하지만, 숫자인식 신경망은 숫자 1로 인식하게 된다.
신경망선택기(240)는 상황관리부(400)의 제어명령에 따라 필요한 신경망(230)을 선택한다. 신경망선택기(240)는 상황관리부(400)에 등록되어 있는 로봇 및 로봇응용 등의 다양한 상황에 따라서 미리 학습되어 준비된 신경망을 선택하여 로드시킨다.
동작인식부(200)가 수신한 신호를 개별동작으로 인식하는 방법은 신경망을 이용한 방법 외에 다른 소프트 컴퓨팅 기법(인공지능기법)을 사용하여 인식장치(220)를 구성할 수도 있다. 하지만 간단한 동작을 한 번씩 입력하여 다양한 동작을 인식하는 경우에는 학습된 신경망을 이용하는 것이 바람직하다. 신경망을 이용한 동작인식부(200)는 동작 신호에 대해 사칙연산 수준의 간단한 산술 연산으로 구성되기 때문에 영상 및 음성 인식에 비해서 간단하고 계산이 빠르다.
명령해석부(300)는 동작인식부(200)의 인식결과를 이용하여 로봇응용소프트웨어(800)에 로봇(500), 영상출력장치(600), 음성출력장치(700)를 통해 동작하거나 출력되는 정보를 포함하는 명령을 전달한다. 명령해석부(300)는 개별적인 동작에 대응되는 상황에 맞는 명령에 관한 데이터 정보를 포함하는 동작, 명령 해석표(320)와 상황관리부(400)의 제어에 의해 동작, 명령 해석표(320)를 선택하는 해 석표선택(330)부분 그리고 상항 관리기(400)를 통해 선택된 동작, 명령 해석표(320)를 바탕으로 현재 상황과 응용에 맞는 명령을 생성하여 최종적으로 로봇(500)이나 로봇응용소프트웨어(800)로 전달하는 명령해석장치(310)로 구성된다.
다만, 명령해석부(300)의 동작, 명령 해석표(320)와 해석표선택(330)은 상황관리부(400)에 등록된 동작, 명령 해석표(320)와 관리부(410)의 제어에 의해 해석표선택(330)이 이루어질 수 있다.
상황관리부(400)는 현재 가용하거나 선택된 응용에 따라 동작 인식부(200)와 명령해석부(300)를 제어한다.
상황(context)관리부(400)는 크게 관리부(410), 사용자(user)상황부(420), 응용(application)상황부(430), 환경(environment)상황부(440) 그리고 로봇(robot)상황부(450)로 분류되어 상황을 수집하고 관리하게 된다.
사용자(user)상황부(420)는 사용자의 아이디, 응용 별 선호사항, 신경망 특징에 관한 사항을 기록하고 있다.
응용(application)상황부(430)와 로봇(robot)상황부(450)는 외부에서 공개되어 있는 제어명령, 상태를 기록하고 있다.
로봇(500)과 로봇 응용 소프트웨어(800)에 전달되는 명령을 해석하기 위해 관련 동작, 명령 해석표를 응용상황부(430)에 등록할 수 있다.
상황관리부(400)는 등록되어 있는 응용 상황이 되면 등록된 해석표에서 적당한 해석표를 선택하고 이에 따라 명령해석장치(310)는 명령을 생성한다.
명령의 형식은 시스템 구현 방법에 따라 달라질 수 있는데 메시지 형식이 바람직하다. 예를 들어, "앞으로 누르기 동작"은 화면 출력기상에 출력된 단추를 누르는 동작으로 해석되어 "누르기" 메시지를 생성하여 로봇 응용 소프트웨어(800)에 전달한다. 또는 "반복해서 위 아래로 흔들기" 동작은 로봇의 움직임을 정지시키기 위한 동작으로 "정지" 메시지를 생성하여 로봇 응용 소프트웨어(800)에 전달한다.
환경(environment)상황부(440)는 로봇 및 응용이 이용 가능한 영상 및 음성 출력장치의 상세정보를 기록하고 있다.
구체적인 상황 정보는 필요에 의해 추가될 수 있도록 관리된다. 이렇게 상황 정보를 필요에 의해 추가하기 위해서는 형식과 내용이 분리된 XML 방식을 사용하는 것이 바람직하다.
로봇 응용 소프트웨어(800)는 명령해석부(300)에서 생성된 명령을 이용하여 로봇(500)의 동작을 제어하거나 영상출력장치(600), 음성출력장치(700)에 관련 정보를 출력한다.
로봇(500)과 로봇 응용 소프트웨어(800)는 사용자의 동작으로부터 발생된 동작을 바탕으로 명령을 수행한다. 로봇(500)은 영상 및 음성 인식 기반 인터페이스와 같은 기존의 인터페이스 장치를 가질 수 있다. 로봇 응용 소프트웨어(800)도 기존의 인터페이스와 본 발명의 동작 기반 인터페이스를 함께 사용할 수 있다.
로봇(500)과 로봇 응용 소프트웨어(800)는 영상 출력장치(700)와 음성 출력장치(700)를 사용하여 상호작용에 필요한 정보를 사용자에게 주는 것이 바람직하 다. 이는 현재 사용할 수 있는 모든 동작을 모두 외울 수 없기 때문에 영상출력장치(600)와 음성출력장치(700)를 통해 이를 알려주는 것이 바람직하다. 또한 입력된 동작의 내용을 확인하고 오인식 결과를 영상, 음성출력장치(600,700)를 통해 사용자가 확인하도록 하는 것이 바람직하다.
도 4는 본 발명에 의한 로봇 응용 소프트웨어의 구성을 나타내는 도면이다.
로봇 응용 소프트웨어(800)는 명령해석부(300)로부터 생성된 명령을 받아서 응용로직부(810)에 의해 명령에 포함된 정보를 분석하여 로봇(820)을 제어하는 제어정보(820), 영상출력장치(600)를 통해 출력되는 영상정보(830)와 음성출력장치(700)를 통해 출력되는 음성정보(840)로 분류하여 각각의 로봇(500), 영상출력장치(600), 음성출력장치(700)에 관련정보를 제공한다.
로봇(500)은 제어정보(820)에 의한 동작을 수행한다. 로봇(500)은 로봇 응용 소프트웨어(800)를 통해 제어정보를 받을 수 있지만 또 다른 방법으로 명령해석부(300)로부터 명령을 직접 받아서 이에 포함된 제어정보를 이용하여 직접 동작을 수행할 수 있다.
영상출력장치(600)와 음성출력장치(700)는 명령으로부터 생성된 영상정보(830)와 음성정보(840)를 출력하고 사용자는 출력내용을 확인하여 입력된 동작에 의한 결과를 확인하여 오인식 여부를 확인할 수 있다.
도 5는 본 발명에 의한 동작기반 인터페이스 방법을 개략적으로 나타내는 흐 름도이다.
서비스 로봇과 사람 사이의 동작기반 인터페이스 방법은 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력단계(S100)와 송신된 신호를 수신하고 수신된 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 개별동작인식단계(S200)와 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석단계(S300) 그리고 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용을 작동하는 로봇 및 로봇응용 작동단계(S400)를 포함하여 이루어지는 것을 특징으로 한다.
개별동작인식단계(S200)와 명령해석단계(S300)는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어된다.
개별동작인식단계(S200)는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력단계(S100)로부터 수신한 신호를 개별동작으로 인식한다.
명령해석단계(S300)는 개별동작인식단계(S200)에 의한 인식결과와 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 로봇장치의 응용에 적합한 명령으로 해석하여 전달한다.
로봇 및 로봇응용 작동 단계(S400)는 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공한다.
동작신호입력단계(S100)는 사용자가 장착한 장치에 의해 이루어진다.
본 발명의 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법에 의해 동작을 기반으로 로봇과 사람이 인터페이스 하는 방법에 대한 간단한 응용 시나리오를 설명한다. 시나리오는 거실 소파에 앉아 있는 사용자가 동작신호입력부(100)를 착용하고 있다가 집안 어딘가에 있는 로봇을 호출하는 것이다.
사용자는 동작신호입력부(100)(예를 들면, 반지)를 착용한 손으로 미리 정의된 동작을 수행한다. 예를 들어, 세 번 빠르게 흔들기 동작을 시행한다. 이때 발생한 동작신호는 동작센서장치(101)에 의해 감지되어 무선송수신부(104)를 통해 동작인식부(200)로 전달된다.
상황관리부(400)는 현재 로봇(500)이 대기 상황이기 때문에 동작인식부(200)에 미리 학습되어 준비된 대기 상황용 신경망(230)을 로드시킨다. 동작인식부(200)는 이 대기 상황용 신경망을 통해 세 번 빠르게 흔들기가 인식되었다고 인식하고 그 결과를 명령해석부(300)에 전달한다.
상황관리부(400)는 대기 상황에 맞는 동작, 명령 해석표(320)를 명령해석부(300)에 로드하고, 명령해석부(300)는 동작, 명령 해석표(320)를 이용해 대기 상황에서 "세 번 빠르게 흔들기" 동작은 "로봇 호출"이라는 명령으로 해석하여 "로봇 호출"이라는 명령을 생성한다.
생성된 명령은 로봇 시스템이나 다른 응용에서 제공하는 "어디에 있는 누구"라는 인수와 함께 로봇에게 전달되고, 로봇은 호출한 사용자에게로 다가가게 된다. 이때, 사용자가 장착하고 있는 동작신호입력부(100)의 메로리장치(103)에 저장되어 있는 장치 및 사용자 식별(ID)을 이용하여 사용자의 위치를 파악하여 사용자에게 다가간다.
영상출력장치(600)가 이용되고 있는 경우라면 현재 입력 가능한 동작과 그 결과를 영상출력장치(600)를 통해 사용자에게 보여 줄 수 있다. 예를 들면, 사용자의 거실 TV가 로봇 응용 소프트웨어(800)와 연동하여 영상출력정보를 출력할 수 있다.
이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
상술한 바와 같이, 본 발명에 따른 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법은 사용자의 동작을 인식하여 상황에 맞는 명령을 출력하여 로봇이 동작함으로써 입력장치와 사용자 사이에 거리 제약이 없고, 동작신호입력부를 사용자가 직접 장착하여 동작을 감지할 수 있어 입력범위에 제한이 없는 효과가 있다.
또한 본 발명에 따른 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템 및 방법은 학습된 신경망에 의해 개별동작을 인식할 수 있기 때문에 연산작용을 신속하게 처리할 수 있고 상황에 맞는 동작, 명령 해석표를 이용하여 다양한 명령을 인식하고 또한 출력장치에 의해 오인식 여부를 사용자가 직접 확인할 수 있는 효과가 있다.

Claims (14)

  1. 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 동작신호입력부;
    상기 동작신호입력부로부터 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 동작인식부;
    상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 명령해석부;
    상기 명령해석부를 통해 전달된 명령에 포함된 정보에 따라 작동을 하는 로봇을 포함하여 이루어지는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  2. 제 1항 있어서,
    상기 동작인식부와 상기 명령해석부는 로봇 응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  3. 제 2항에 있어서,
    상기 동작인식부는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상기 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력부로부터 수신한 신호를 개별동작으로 인식하는 것을 특징으로 하는 서비스 로봇과 사람 사 이의 동작 기반 인터페이스 시스템
  4. 제 3항에 있어서,
    상기 명령해석부는 상기 동작인식부의 인식결과와 상기 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 상기 로봇장치의 응용에 적합한 명령으로 해석하여 전달하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  5. 제 1항에 있어서,
    상기 동작신호입력부는 사용자가 착용할 수 있는 형태로 이루어지는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  6. 제 5항에 있어서,
    상기 동작신호입력부는 사용자와 동작신호입력부의 식별자(ID)를 저장하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  7. 제 2항에 있어서,
    상기 로봇와 로봇응용은 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  8. 제 2항에 있어서,
    상기 로봇 및 로봇응용은 자신의 상황정보를 공개하거나 상황관리기에 능동적으로 등록하는 기능을 갖는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  9. 사용자의 동작을 동작센서를 통해 신호로 감지하고, 상기 감지된 신호를 송신하는 단계;
    상기 송신된 신호를 수신하고 상기 신호를 해석하여 상황에 맞는 개별동작으로 인식하는 단계;
    상기 인식된 개별동작을 상황과 응용에 맞는 명령으로 해석하는 단계;
    상기 해석된 명령에 포함된 정보에 따라 로봇 및 로봇응용이 작동을 하는 단계를 포함하여 이루어지는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.
  10. 제 9항에 있어서,
    상기 개별동작으로 인식하는 단계와 상기 명령으로 해석하는 단계는 로봇응용에 따라 상황을 관리 및 전달하는 상황관리부에 의해 제어되는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.
  11. 제 10항에 있어서,
    상기 개별동작으로 인식하는 단계는 응용 및 사용자에 적합하게 학습된 복수개의 신경망을 기반으로 상기 상황관리기에 의해 선택된 신경망을 통해 상기 동작신호입력단계로부터 수신한 신호를 개별동작으로 인식하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.
  12. 제 11에 있어서,
    상기 명령으로 해석하는 단계는 상기 개별동작으로 인식되는 단계에 의한 인식결과와 상기 상황관리기로부터 제공되는 동작,명령 해석표에 따라 동작을 상기 로봇장치의 응용에 적합한 명령으로 해석하여 전달하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.
  13. 제 10항에 있어서,
    상기 로봇 및 로봇응용이 작동하는 단계는 영상 출력장치와 음성 출력장치에 의해 상호작용에 필요한 정보를 사용자에게 제공하는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 시스템.
  14. 제 9항에 있어서,
    상기 사용자의 동작을 동작센서를 통해 신호로 감지하는 단계는 사용자가 장착한 장치에 의해 이루어지는 것을 특징으로 하는 서비스 로봇과 사람 사이의 동작 기반 인터페이스 방법.
KR1020060043107A 2005-12-08 2006-05-12 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법 KR100757500B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060043107A KR100757500B1 (ko) 2005-12-08 2006-05-12 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020050119723 2005-12-08
KR20050119723 2005-12-08
KR1020060043107A KR100757500B1 (ko) 2005-12-08 2006-05-12 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법

Publications (2)

Publication Number Publication Date
KR20070061078A true KR20070061078A (ko) 2007-06-13
KR100757500B1 KR100757500B1 (ko) 2007-09-11

Family

ID=38357012

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060043107A KR100757500B1 (ko) 2005-12-08 2006-05-12 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법

Country Status (1)

Country Link
KR (1) KR100757500B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927950B1 (ko) * 2008-02-29 2009-11-23 주식회사 케이티 로봇 스크립트를 이용한 로봇 행동 제어 시스템 및 그 로봇
KR100982164B1 (ko) * 2008-12-18 2010-09-14 한양대학교 산학협력단 행동이론 기반의 행동인지 방법 및 장치
WO2014157757A1 (ko) * 2013-03-29 2014-10-02 엘지전자 주식회사 이동식 입력 장치 및 그를 이용한 명령 입력 방법
CN106863265A (zh) * 2015-12-14 2017-06-20 现代自动车株式会社 穿戴式机器人装置和控制穿戴式机器人装置的方法
WO2017133781A1 (en) * 2016-02-05 2017-08-10 Abb Schweiz Ag Controlling an industrial robot using interactive commands
CN107322592A (zh) * 2017-06-15 2017-11-07 重庆柚瓣科技有限公司 养老机器人智能控制方法
US9869760B2 (en) 2014-09-18 2018-01-16 Hyundai Motor Company System and method for recognizing a motion by analyzing a radio signal
KR20200042265A (ko) * 2018-10-15 2020-04-23 호남대학교 산학협력단 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법
KR20210084677A (ko) * 2015-11-24 2021-07-07 엑스 디벨롭먼트 엘엘씨 인간/로봇 통합 환경들에 대한 안전 시스템

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048406B1 (ko) * 2008-12-17 2011-07-11 한국전자통신연구원 사용자 자세를 사용자 명령으로 인식하는 게임 시스템 및 방법
KR20170118520A (ko) 2016-04-15 2017-10-25 삼성전자주식회사 인터페이스 뉴럴 네트워크
KR102241705B1 (ko) * 2017-12-22 2021-04-19 한국전자통신연구원 멀티모달 행위 검출 장치 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260063A (ja) 2000-03-21 2001-09-25 Sony Corp 多関節型ロボット及びその動作制御方法
KR20010074568A (ko) * 2001-05-08 2001-08-04 이중호 가속도 센싱 모션 센서 및 그 센싱 방법
KR101006191B1 (ko) * 2002-08-06 2011-01-07 윤재민 가상인격체의 감정표현과 동작구현방법

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927950B1 (ko) * 2008-02-29 2009-11-23 주식회사 케이티 로봇 스크립트를 이용한 로봇 행동 제어 시스템 및 그 로봇
KR100982164B1 (ko) * 2008-12-18 2010-09-14 한양대학교 산학협력단 행동이론 기반의 행동인지 방법 및 장치
WO2014157757A1 (ko) * 2013-03-29 2014-10-02 엘지전자 주식회사 이동식 입력 장치 및 그를 이용한 명령 입력 방법
US10466795B2 (en) 2013-03-29 2019-11-05 Lg Electronics Inc. Mobile input device and command input method using the same
US9869760B2 (en) 2014-09-18 2018-01-16 Hyundai Motor Company System and method for recognizing a motion by analyzing a radio signal
KR20210084677A (ko) * 2015-11-24 2021-07-07 엑스 디벨롭먼트 엘엘씨 인간/로봇 통합 환경들에 대한 안전 시스템
US11383382B2 (en) 2015-11-24 2022-07-12 Intrinsic Innovation Llc Safety system for integrated human/robotic environments
US10086513B2 (en) 2015-12-14 2018-10-02 Hyundai Motor Company Wearable robot device and method of controlling the wearable robot device
CN106863265A (zh) * 2015-12-14 2017-06-20 现代自动车株式会社 穿戴式机器人装置和控制穿戴式机器人装置的方法
CN106863265B (zh) * 2015-12-14 2021-07-30 现代自动车株式会社 穿戴式机器人装置和控制穿戴式机器人装置的方法
WO2017133781A1 (en) * 2016-02-05 2017-08-10 Abb Schweiz Ag Controlling an industrial robot using interactive commands
CN108602190A (zh) * 2016-02-05 2018-09-28 Abb瑞士股份有限公司 使用交互式命令控制工业机器人
CN107322592A (zh) * 2017-06-15 2017-11-07 重庆柚瓣科技有限公司 养老机器人智能控制方法
KR20200042265A (ko) * 2018-10-15 2020-04-23 호남대학교 산학협력단 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법

Also Published As

Publication number Publication date
KR100757500B1 (ko) 2007-09-11

Similar Documents

Publication Publication Date Title
KR100757500B1 (ko) 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법
US10802598B2 (en) User interface control of responsive devices
EP3387628B1 (en) Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
US20120268580A1 (en) Portable computing device with intelligent robotic functions and method for operating the same
CN112771478A (zh) 对环境中的物理对象的神经肌肉控制
JP7243110B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに荷物受け取り支援システム
WO2017104227A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR102288658B1 (ko) 로봇 및 그의 제어 방법
KR20130060952A (ko) 서비스로봇 원격제어 시스템
Corradini et al. A map-based system using speech and 3D gestures for pervasive computing
WO2018117514A1 (ko) 공항용 로봇 및 그의 동작 방법
KR20150090476A (ko) 이동단말기, 이동단말기용 거치대 그리고 이들의 구동방법
JP2007160427A (ja) ロボット制御システム
KR20190106925A (ko) 인공지능 로봇 및 그의 제어 방법
JP2002120184A (ja) ネットワーク上のロボット動作制御システム
JP6558764B2 (ja) テレプレゼンスロボット
US11743574B2 (en) System and method for AI enhanced shutter button user interface
CN113498029B (zh) 交互式广播
CN104932695B (zh) 信息输入装置及信息输入方法
JP5076081B2 (ja) 集団状態推定システムおよび集団注意制御システムならびにアクティブセンシングシステム
Jeon et al. A multimodal ubiquitous interface system using smart phone for human-robot interaction
US20240146350A1 (en) Smart ring
US11949753B2 (en) Information processing apparatus, information processing system, and information processing method
KR101000792B1 (ko) 동적 사용자 인터페이스 생성 방법 및 이를 이용하는 모바일 단말 장치
KR20210114187A (ko) 스마트 링 및 이를 이용한 기기 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20110831

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20120831

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee