KR20110003811A - 상호작용성 로봇 - Google Patents

상호작용성 로봇 Download PDF

Info

Publication number
KR20110003811A
KR20110003811A KR1020090061263A KR20090061263A KR20110003811A KR 20110003811 A KR20110003811 A KR 20110003811A KR 1020090061263 A KR1020090061263 A KR 1020090061263A KR 20090061263 A KR20090061263 A KR 20090061263A KR 20110003811 A KR20110003811 A KR 20110003811A
Authority
KR
South Korea
Prior art keywords
human
response
service
module
determination
Prior art date
Application number
KR1020090061263A
Other languages
English (en)
Other versions
KR101239274B1 (ko
Inventor
김혜진
윤영우
윤호섭
이재연
황대환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090061263A priority Critical patent/KR101239274B1/ko
Publication of KR20110003811A publication Critical patent/KR20110003811A/ko
Application granted granted Critical
Publication of KR101239274B1 publication Critical patent/KR101239274B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 상호작용성 로봇에 대하여 개시한다. 본 발명의 일면에 따른 상호작용성 로봇은, 인간의 행위에 대한 센싱정보들을 이용하여 상기 인간의 의도를 파악하는 인지부; 상기 파악된 의도에 대응하는 서비스를 제공하고, 그에 대한 상기 인간의 반응을 감지하는 서비스 제공부; 및 상기 감지된 반응을 분석하여 상기 인지부의 파악결과에 대한 신뢰성을 판단하는 상호작용부를 포함하는 것을 특징으로 한다.
Figure P1020090061263
상호작용, 로봇 제어, 지각센서, 휴머노이드, 반응 감지

Description

상호작용성 로봇{Interactable Robot}
본 발명은 로봇 제어에 관한 것으로서, 구체적으로는 제공한 서비스에 대한 사용자의 반응을 보다 즉각적으로 확인할 수 있어 이후 서비스의 정확성을 높일 수 있는 상호작용성 로봇에 관한 것이다.
본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-037-01, 과제명: u-로봇 HRI 솔루션 및 핵심 소자 기술 개발].
근래, 각종 산업현장과 가정 내에 특성화된 로봇이 인간의 업무를 대신하고 있다. 이러한 로봇은 사용자 입력이나 센서를 통해 수집된 상황 정보에 대응하는 미리 정해진 프로그램에 따른 출력을 제공한다.
이러한 로봇은 다양한 기술에 대한 전문 개발자에 의하여 비교적 긴 시간에 걸쳐 제작되기 때문에, 일반인은 정해진 사양의 로봇을 구입하여 사용할 뿐, 원하는 로봇을 스스로 제작하거나, 사용중인 로봇을 원하는 변형시키기는 어렵다.
더욱이, 로봇은 인간과 달리 사고가 불가능하여 사고를 통해 인간과 상호작용하여 스스로 환경(사용자)에 맞도록 변화할 수 없다.
전술한 문제점을 해결하기 위하여, 본 발명의 목적은 사용자의 의도를 파악하여 의도에 맞는 서비스를 제공할 수 있는 상호작용성 로봇을 제공함에 있다.
본 발명의 다른 목적은 제공한 서비스에 대한 사용자의 반응을 확인하여 로봇의 인식 및 서비스의 정확성을 향상시킬 수 있는 상호작용성 로봇을 제공함에 있다.
본 발명의 일면에 따른 상호작용성 로봇은, 인간에 대한 센싱정보들을 이용하여 인간의 의도를 파악하는 인지부; 상기 파악된 의도에 대응하는 서비스를 제공하고, 그에 대한 상기 인간의 반응을 감지하는 서비스 제공부; 및 상기 감지된 반응을 분석하여 상기 인지부의 파악결과에 대한 신뢰성을 판단하는 상호작용부를 포함하는 것을 특징으로 한다.
본 발명의 다른 면에 따른 상호작용성 로봇은, 인간에 대한 정보를 수집하는 센서 모듈; 상기 수집된 정보를 분석하여 제공할 서비스를 결정하는 판단 모듈; 및 상기 결정된 서비스를 제공하는 서비스 모듈을 포함하되, 상기 판단 모듈은, 상기 수집된 정보를 분석하여 인간의 의도를 파악하고, 상기 파악된 의도에 대응하는 서비스를 결정하는 것을 특징으로 한다.
본 발명에 따르면, 인간의 표현에 따른 사용자의 의도를 파악하여 그에 대응 하는 서비스를 제공할 수 있으며, 제공된 서비스에 대한 사용자의 반응을 확인하여 의도 파악의 정확성을 확인할 수 있는 효과가 있다.
또한, 본 발명은 인지모듈에 의하여 인지된 인간의 반응을 상호작용부에서 총괄적으로 관리함으로써, 처리 속도 및 처리의 효율성을 높일 수 있으며, 인지모듈을 경량화할 수 있다.
뿐만 아니라, 본 발명에 따른 로봇은 의도의 파악 및 사용자의 반응에 대한 데이터들을 축적하여 이후의 의도 파악과 서비스 제공의 정확도를 높일 수 있으며,사용자에 맞도록 스스로 적응할 수 있다.
이하, 도 1을 참조하여 본 발명의 일실시예에 따른 상호작용성 로봇에 대하여 설명한다. 도 1은 본 발명의 일실시예에 따른 상호작용성 로봇을 도시한 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 상호작용성 로봇(10)은 인지부(110), 서비스 제공부(120) 및 상호작용부(130)를 포함한다.
인지부(110)는 인간에 대한 센싱정보, 예컨대 인간의 주변 환경 및/또는 인간의 행위나 음성에 대한 센싱정보를 이용하여 인간의 의도를 파악한다.
인지부(110)는 거리 센서, 열 센서, 온도 센서, 습도 센서, 터치 센서, 음성 센서 및 카메라 중 적어도 하나의 지각센서(140)로부터 센싱정보를 제공받으며, 각 센싱정보를 이용한 인지를 수행하는 인지모듈을 포함한다.
즉, 지각센서(140)는 로봇(10)의 현위치에서 인간이 위치한 영역에 대한 센 싱정보(예컨대, 온도, 습도, 소음, 바람 및 압력 등) 및 인간에 대한 센싱정보(예컨대, 인간과의 거리, 인간의 체온, 감촉, 음성, 말의 내용 및 외형 등)를 감지하여 인지부(110)에 제공한다.
여기서, 인간은 로봇(10)의 사용자이며, 인간의 의도는 로봇(10)을 제어하는 사용자의 명령일 수 있다. 따라서, 인지부(110)는 센싱정보의 대상이 되는 인간이 미리 설정된 사용자가 아닌 경우에, 그의 의도를 파악하더라도 이를 무시할 수 있다. 이때, 인지부(110)는 미리 설정된 사용자인지 여부를 인간의 음성 및 외형 등을 통해서 파악할 수 있다.
서비스 제공부(120)는 파악된 인간의 의도에 대응하는 서비스를 제공(출력)하며, 스피커, 터치 스크린, LED 및 구동부 중 적어도 하나를 통하여 서비스를 제공할 수 있다. 이때, 구동부는 로봇의 팔, 로봇의 다리, 로봇의 눈동자, 로봇의 몸통 중 적어도 하나의 구동을 제어할 수 있다.
상호작용부(130)는 제공된 서비스에 대한 인간의 반응을 감지하며, 감지된 반응을 분석하여 인지부(110)의 파악결과에 대한 신뢰성을 판단한다. 이때, 서비스 제공부(120)는 반응을 감지하기 위한 센서를 별도로 구비하지 않고, 지각센서(140)를 통하여 인간의 반응을 감지할 수 있다.
상호작용부(130)는 감지된 반응을 분석하여 인지부(110)는 물론, 인지부(110)의 각 인지모듈의 인지결과에 대한 신뢰성을 각각 판단하며, 반응 평가부(131) 및 신뢰성 판단부(132)를 포함한다.
상세하게는, 반응평가부(131)는 제공된 서비스에 대한 사용자의 피드백(반 응)을 총괄적이고 적극적으로 해석하여 인지부(110) 내 각 인지모듈의 인지에 대한 긍정 또는 부정을 평가하며, 신뢰성 판단부(132)는 해석된 결과를 이용하여 각 인지모듈의 신뢰성을 판단하여 인지부(110) 내 각 인지모듈로 전달한다.
이때, 반응 평가부(131)는 음성의 내용, 상기 인간의 동작, 표정 및 제스처 중 적어도 하나를 이용하여 감지된 반응이 긍정적인지 또는 부정적인지를 평가할 수 있다.
신뢰성 판단부(132)는 신뢰성 판단결과를 인지부(110)에 전달하고, 인지부(110)는 신뢰성 판단결과를 이후의 의도 파악에 이용한다. 이때, 인지부(110)는 감지된 반응이 부정적이면 지각센서(140) 또는 상호작용부(130) 내의 센서를 이용하여 인간의 의도를 재파악한다.
일 예로서, 집안에 있는 인간이 "TV 켜"라고 말하였을 때 지각센서(140)에 의하여 감지된 음성이 인지부(110)로 전달되고, 인지부(110)는 감지된 음성의 내용을 해석하여 인간의 의도를 파악한다. 그런데, 인지부(110)가 감지된 음성을 "전등 꺼"라는 명령으로 잘못 해석하여 서비스 제공부(120)가 전등을 끄도록 하였다면, 사용자는 로봇(10)을 때리는 부정적인 행위나, "이 바보야"와 같은 부정적인 말로 반응할 것이다. 그러면, 상호작용부(130)는 행위나 말 등의 반응을 감지하여 감지된 반응이 부정적이라고 평가하여 인지부(110)의 파악결과가 신뢰성이 없다고 판단한다. 이후, 인지부(110)는 상호작용부(130)의 판단결과를 피드백받아 인간의 의도를 재파악한다. 이때, 인지부(110)는 이전의 센싱정보를 그대로 이용하지 않고, 상호작용부(130)를 통해 인간의 의도를 반문하여 센싱정보를 추가로 수집할 수 있다.
또는, 인간과 로봇(10) 간에 긍정적 반응과 부정적 반응을 미리 설정하여 평가에 이용할 수 있다. 예컨대, A행동은 긍정의 표현이고, B행동은 부정의 표현이라고 설정하였다면, 로봇(10)은 인간의 A행동을 감지하면 긍정적 반응으로 파악하고, 인간의 B행동을 감지하면 부정적 반응이라고 파악할 수 있다. 이 경우, 로봇(10)은 인간의 반응이 긍정적 또는 부정적인지를 좀더 빠르고 정확하게 파악할 수 있다.
또 다른 예로서, 사용자 "TV 켜"라는 명령을 로봇(10)에게 내렸을 때, 인지부(110) 내에 음성인식모듈은 명령의 내용을 인식하고, 인지부(110) 내의 화자인식모듈은 명령을 내린 사람이 "아빠"라는 것을 인식하며, 인지부(110) 내의 사용자위치추적모듈은 아빠의 위치가 "안방"임을 파악하여 거실과 안방에 있는 TV중 안방에 있는 TV를 끄라는 명령임을 파악한다. 이때, 인지부(110) 내의 인지모듈이 이를 잘못 인지하여 안방에 있는 에어컨을 켜는 서비스를 제공하였다고 가정하면, 아빠는 "TV를 켜란 말야"라고 말하며 로봇(10)을 때리는 등의 반응을 보일 것이다.
이 경우, 종래의 로봇은 부정적인 반응을 감지하고 인지부(110) 내 각 인지모듈(음성인식모듈, 화자인식모듈, 사용자위치추적모듈)에 부정적인 반응에 대응하는 부정적인 피드백을 전달하므로, 어떠한 인지모듈이 잘못된 동작을 하였는지는 알지 못하고, 부정적인 피드백만 인지할 뿐이다.
그런데, 본 발명의 로봇(10)은 로봇(10)을 때렸다는 부정적인 반응과 첫 번째 명령과 두 번째 명령 즉, "TV 켜"와 "TV를 켜란 말야"에서 "TV"와 "켜"라는 반복이 있음을 확인하고, 인지부(110)의 화자인식모듈 및 위치추적모듈에는 긍정의 피드백을, 음성인식모듈에는 부정의 피드백을 주도록 평가한 후 이를 각 인지모듈 에 각각 전달한다. 따라서, 로봇(10)은 어떠한 인지모듈에서 인지를 잘못하였는지를 알 수 있으며, 인지를 잘못한 인지모듈만 명령을 재해석하는 등의 수행을 하도록 할 수 있다.
이 같이, 본 발명은 인간의 표현에 따른 사용자의 의도를 파악하여 그에 대응하는 서비스를 제공할 수 있으며, 제공된 서비스에 대한 사용자의 반응을 확인하여 의도 파악의 신뢰성을 높일 수 있는 효과가 있다.
이하, 도 2를 참조하여 본 발명의 다른 실시예에 따른 상호작용성 로봇에 대하여 설명한다. 도 2는 본 발명의 다른 실시예에 따른 상호작용성 로봇을 도시한 구성도이다.
도 2에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 상호작용성 로봇(20)은 센서 모듈(210), 판단 모듈(220) 및 서비스 모듈(230)을 포함한다.
센서 모듈(210)은 기설정된 영역 내 인간에 대한 정보를 수집한다. 센서 모듈(210)은 인간과의 거리, 인간의 복사열, 기설정된 영역의 온도, 기설정된 영역의 습도, 기설정된 영역의 압력, 기설정된 영역의 바람, 인간의 감촉, 인간의 음성 및 인간에 대한 영상 중 적어도 하나의 정보를 수집한다.
판단 모듈(220)은 수집된 정보를 이용하여 제공할 서비스를 결정하고, 제공된 서비스에 대한 인간의 반응에 따라 이후 제공할 서비스를 재결정한다.
예컨대, 판단 모듈(220)은 수집된 인간의 음성을 해석하여 기설정된 사용자인지 여부를 확인할 수 있으며, 음성 내용을 해석하여 내용에 대응하는 서비스를 결정할 수 있다. 또한, 판단 모듈(220)은 수집된 영상으로부터 설정된 사용자인지 여부를 확인할 수 있으며, 영상으로부터 인간의 제스처, 행동 등을 해석하여 그에 대응하는 서비스를 결정할 수 있다.
또한, 판단 모듈(220)은 인간과의 거리 및 인간의 음성을 종합적으로 해석하여 음성의 크기가 기준치 이하일 때 인간의 의도에 따른 서비스에 앞서, 인간 쪽으로 접근하여 인간과의 거리를 좁히는 임시 서비스가 필요함을 결정할 수 있다. 또한, 판단 모듈(220)은 기설정된 영역의 온도, 습도 및 바람 등의 정보와 인간의 음성 내용을 종합하여 제공할 서비스를 결정할 수 있다.
서비스 모듈(230)은 판단 모듈(220)에 의해 결정된 서비스를 제공한다. 이때, 서비스 모듈(230)은 스피커, 터치 스크린, LED 및 팔, 다리, 눈동자, 몸통 등에 대한 구동부 중 적어도 하나를 이용하여 서비스를 제공할 수 있다.
한편, 상호작용성 로봇(20)은 상호작용센서(260) 및 상호작용 모듈(240)을 더 포함하고, 제공된 서비스에 대한 반응을 파악하여 결정의 신뢰성을 판단하고, 판단 모듈(220)이 제공할 서비스를 재결정하도록 할 수 있다. 이하, 상호작용센서(260) 및 상호작용 모듈(240)의 각 구성요소인 반응 평가부(241) 및 신뢰성 판단부(242)에 대하여 설명한다.
상호작용센서(260)는 제공된 서비스에 대한 인간의 반응을 수집하는데, 인간의 반응은 음성의 내용, 인간의 동작, 표정 및 제스처 중 적어도 하나를 포함한다. 여기서, 상호작용성 로봇(20)은 별도의 상호작용센서(260)를 구비하지 않고, 센서 모듈(210)을 이용하여 인간의 반응을 수집할 수도 있다.
반응 평가부(241)는 기설정된 판단근거를 기준으로 인간의 반응이 긍정적인 지 여부를 평가한다. 이때, 판단근거는 긍정 또는 부정을 표현하는 말(예컨대, 좋아, 잘했어, 다시 해, 싫어 등), 동작(예컨대, 쓰다듬기), 표정(예컨대, 웃음, 울음, 찌부림 등) 및 제스처 등일 수 있으며, 설정된 사용자에 대하여 별도로 지정된 것일 수 있다. 또한, 반응 평가부(241)는 인간의 반응이 긍정적이거나 부정적이지 않은 무반응이거나 애매모호한 경우 상호작용센서(260)를 통하여 인간의 반응을 유도할 수 있다.
이때, 반응 평가부(241)가 인지부(110)의 인지모듈에 대한 반응을 총괄적으로 평가할 수 있기 때문에, 각 인지모듈이 인간의 반응을 별도로 평가할 필요가 없고 사용자의 반응을 효율적이고 종합적으로 평가할 수 있다.
신뢰성 판단부(242)는 반응 평가부(241)에 의한 평가가 긍정적이면, 각 인지모듈의 결정에 신뢰성이 있다고 판단하고, 평가가 부정적이면 각 인지모듈의 결정에 신뢰성이 없다고 판단한다. 그리고, 신뢰성 판단부(242)는 판단결과를 판단 모듈(220)로 전달하여 판단 모듈(220)이 제공할 서비스를 재결정하도록 한다.
한편, 상호작용성 로봇(20)은 판단모델 구성모듈(250)을 더 포함할 수 있으며, 판단모델 구성모듈(250)은 판단 모듈(220)에 의한 서비스 결정 및 상호작용 모듈(240)에 의한 신뢰성 판단 등을 종합하여 이후의 서비스 결정에 사용될 판단모델을 구성할 수 있다. 이때, 판단모델은 반응 평가부(241)의 이후 판단근거로 이용될 수 있으며, 반응 평가부(241)의 평가 결과에 따라 지속적으로 갱신되는 것이 바람직하다.
예컨대, 판단모델은 음성 및 그 내용에 따라 구분되는 음성 모델, 화자에 따 라 구분되는 화자 모델, 화자의 표정에 따라 구분되는 표정 모델 및 화자의 제스처에 따라 구분되는 제스처 모델 등일 수 있다.
이 같이, 본 발명은 의도의 파악 및 사용자의 반응에 대한 데이터들을 축적하여 이후의 의도 파악과 서비스 제공의 정확도를 지속적으로 높일 수 있고, 사용자에 맞도록 스스로 적응할 수 있다.
이하, 도 3을 참조하여 본 발명의 실시예에 따른 상호작용성 로봇의 제어 방법에 대하여 설명한다. 도 3은 본 발명의 실시예에 따른 상호작용성 로봇의 제어 방법을 도시한 흐름도이다.
도 3에 도시된 바와 같이, 상호작용성 로봇(10, 20)은 기설정된 영역 내 위치한 인간에 대한 정보를 수집한다(S310). 이때, 인간에 대한 정보는 인간과의 거리, 인간의 복사열, 기설정된 영역의 온도, 기설정된 영역의 습도, 기설정된 영역의 압력, 기설정된 영역의 바람, 인간의 감촉, 인간의 음성 및 인간에 대한 영상 중 적어도 하나를 포함한다.
이어서, 상호작용성 로봇(10, 20)은 수집된 정보를 이용하여 제공할 서비스를 결정한다(S320). 즉, 상호작용성 로봇(10, 20)은 수집된 정보를 분석 및 종합하여 인간의 의도를 파악하며, 파악된 인간의 의도에 대응하는 제공할 서비스를 결정한다.
이때, 상호작용성 로봇(10, 20)은 파악된 인간의 의도에 따른 서비스를 제공할 수 없을 때, 기설정된 영역 내 위치한 인간에게 해당 서비스를 제공할 수 없다고 알리거나, 대체 가능한 서비스에 대한 정보를 제공할 수 있다.
그리고, 상호작용성 로봇(10, 20)은 결정된 서비스를 제공한다(S330). 이때, 상호작용성 로봇(10, 20)은 팔, 다리, 눈동자, 몸통의 구동부, 스피커, 스크린 및 LED 중 적어도 하나를 이용하여 결정된 서비스를 제공할 수 있다.
그 다음으로, 상호작용성 로봇(10, 20)은 제공된 서비스에 대한 인간의 반응을 확인한다(S340). 이때, 상호작용성 로봇(10, 20)은 음성의 내용, 상기 인간의 동작, 표정 및 제스처 중 적어도 하나의 반응을 이용한다. 여기서, 상호작용성 로봇(10, 20)은 각 반응이 인지부(110)내 어떠한 인지모듈에 대한 반응인지도 확인할 수 있다.
그리고, 상호작용성 로봇(10, 20)은 기설정된 판단근거를 기준으로 인간의 반응이 긍정적인지를 평가한다(S350). 이때, 상호작용성 로봇(10, 20)은 어떠한 인지모듈에 대해 긍정적인 반응을 보인 것인지를 확인할 수 있다.
이때, 상호작용성 로봇(10, 20)은 반응이 긍정적이면 서비스 결정에 신뢰성이 있다고 판단하고, 판단결과를 저장한다(S360).
반면, 상호작용성 로봇(10, 20)은 반응이 부정적이면 결정에 신뢰성이 없다고 판단하고(S370), 제공할 서비스를 재결정한다(S320). 여기서, 상호작용성 로봇(10, 20)은 어떠한 인지모듈에 대한 반응이 부정적인지를 확인하고, 해당 인지모듈에 대해서만 인지를 재수행하도록 하여 제공할 서비스를 재결정할 수 있다.
이와 같이, 본 발명에 따른 상호작용성 로봇(10, 20)은 인간의 표현에 따른 사용자의 의도를 파악하여 그에 대응하는 서비스를 제공할 수 있으며, 제공된 서비스에 대한 사용자의 반응을 확인하여 이후의 의도 파악과 서비스 제공의 정확도를 높일 수 있고, 따라서 사용자에 맞도록 스스로 적응할 수 있다.
이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허청구범위의 기재에 의하여 정하여져야 할 것이다.
도 1은 본 발명의 일실시예에 따른 상호작용성 로봇을 도시한 구성도.
도 2는 본 발명의 다른 실시예에 따른 상호작용성 로봇을 도시한 구성도.
도 3은 본 발명의 실시예에 따른 상호작용성 로봇의 제어 방법을 도시한 흐름도.

Claims (15)

  1. 인간에 대한 센싱정보들을 이용하여 인간의 의도를 파악하는 인지부;
    상기 파악된 의도에 대응하는 서비스를 제공하고, 그에 대한 상기 인간의 반응을 감지하는 서비스 제공부; 및
    상기 감지된 반응을 분석하여 상기 인지부의 파악결과에 대한 신뢰성을 판단하는 상호작용부
    를 포함하는 상호작용성 로봇.
  2. 제1항에 있어서,
    거리 센서, 열 센서, 온도 센서, 습도 센서, 터치 센서, 음성 센서 및 카메라 중 적어도 하나의 지각센서를 더 포함하고,
    상기 인지부는 상기 적어도 하나의 지각센서로부터 상기 센싱정보를 제공받는 것인 상호작용성 로봇.
  3. 제1항에 있어서, 상기 서비스 제공부는,
    스피커, 터치 스크린, LED 및 상기 로봇의 움직임을 구동하는 구동부 중 적어도 하나를 포함하는 것인 상호작용성 로봇.
  4. 제1항에 있어서, 상기 상호작용부는,
    상기 감지된 반응이 긍정적인지 부정적인지를 평가하는 반응 평가부; 및
    상기 평가를 이용하여 상기 인지부의 신뢰성을 판단하는 신뢰성 판단부
    를 포함하는 것인 상호작용성 로봇.
  5. 제4항에 있어서,
    상기 인지부는 각 센싱정보를 각각 인지하는 복수의 인지모듈을 포함하는 것이고,
    상기 반응 평가부는 상기 감지된 반응이 상기 복수의 인지모듈 중 어떠한 인지모듈에 대한 긍정적 또는 부정적인 반응인지를 평가하며,
    상기 신뢰성 판단부는 상기 평가를 이용하여 상기 인지부의 신뢰성을 판단하는 것인 상호작용성 로봇.
  6. 제4항 또는 제5항에 있어서, 상기 반응 평가부는,
    상기 인간의 음성의 내용, 동작, 표정 및 제스처 중 적어도 하나를 이용하여 상기 감지된 반응이 긍정적인지 또는 부정적인지를 평가하는 것인 상호작용성 로봇.
  7. 제4항에 있어서, 상기 신뢰성 판단부는,
    상기 감지된 반응이 긍정적이면, 상기 인지부의 신뢰성이 높다고 판단하며,
    상기 감지된 반응이 부정적이면, 상기 인지부의 신뢰성이 낮다고 판단하는 것인 상호작용성 로봇.
  8. 제4항에 있어서, 상기 인지부는,
    상기 감지된 반응이 부정적이면 추가적인 센싱정보를 이용하여 상기 인간의 의도를 재파악하는 것인 상호작용성 로봇.
  9. 인간에 대한 정보를 수집하는 센서 모듈;
    상기 수집된 정보를 분석하여 제공할 서비스를 결정하는 판단 모듈; 및
    상기 결정된 서비스를 제공하는 서비스 모듈을 포함하되,
    상기 판단 모듈은 상기 수집된 정보를 분석하여 인간의 의도를 파악하고, 상기 파악된 의도에 대응하는 서비스를 결정하는 것인 상호작용성 로봇.
  10. 제9항에 있어서, 상기 센서 모듈은,
    인간과의 거리, 인간의 열, 인간의 감촉, 상기 인간의 음성 및 상기 인간의 영상, 상기 인간의 위치영역에 대한 습도, 압력 및 바람 중 적어도 하나의 정보를 수집하는 것인 상호작용성 로봇.
  11. 제9항에 있어서, 상기 판단 모듈은,
    상기 제공된 서비스에 대한 인간의 반응에 따라 제공할 서비스를 재결정하는 것인 상호작용성 로봇.
  12. 제9항에 있어서,
    상기 제공된 서비스에 대한 인간의 반응을 수집하는 상호작용센서;
    기설정된 판단근거를 기준으로 상기 반응이 긍정적인지 여부를 평가하는 반응 평가부; 및
    상기 평가가 긍정적이면, 상기 결정에 신뢰성이 있다고 판단하는 신뢰성 판단부를 포함하는 상호작용 모듈
    을 더 포함하는 상호작용성 로봇.
  13. 제12항에 있어서, 상기 신뢰성 판단부는,
    상기 반응 평가부의 평가 결과 상기 인간의 반응이 부정적이면 상기 결정에 신뢰성이 없다고 판단하는 것인 상호작용성 로봇.
  14. 제9항에 있어서,
    상기 서비스 결정 및 상기 신뢰성 판단의 결과를 종합하여 상기 서비스 결정에 사용될 판단모델을 구성하는 판단모델 구성모듈
    를 더 포함하는 상호작용성 로봇.
  15. 제14항에 있어서, 상기 판단모델 구성모듈은,
    상기 신뢰성 판단부의 판단결과를 토대로 상기 판단모델을 지속적으로 갱신 하는 것인 상호작용성 로봇.
KR1020090061263A 2009-07-06 2009-07-06 상호작용성 로봇 KR101239274B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090061263A KR101239274B1 (ko) 2009-07-06 2009-07-06 상호작용성 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090061263A KR101239274B1 (ko) 2009-07-06 2009-07-06 상호작용성 로봇

Publications (2)

Publication Number Publication Date
KR20110003811A true KR20110003811A (ko) 2011-01-13
KR101239274B1 KR101239274B1 (ko) 2013-03-06

Family

ID=43611516

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090061263A KR101239274B1 (ko) 2009-07-06 2009-07-06 상호작용성 로봇

Country Status (1)

Country Link
KR (1) KR101239274B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101234289B1 (ko) * 2011-02-28 2013-02-18 동명대학교산학협력단 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템 및 그 방법
KR20130083099A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 로봇 및 이상 상황 판단과 대응방법
CN103496633A (zh) * 2012-03-21 2014-01-08 通用汽车环球科技运作有限责任公司 推断让机器人系统运动的操作者的意图的方法
WO2014109421A1 (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 단말기 및 그 동작 제어 방법
KR20140130045A (ko) * 2013-04-29 2014-11-07 한성대학교 산학협력단 자율도 조정과 인간 조작자 개입을 통한 hri 로봇 시스템
KR20190079255A (ko) * 2017-12-27 2019-07-05 (주) 퓨처로봇 로봇 서비스 학습 시스템 및 그 방법
KR20200036089A (ko) * 2018-09-20 2020-04-07 한국전자통신연구원 상호 작용 장치 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102189591B1 (ko) * 2020-05-06 2020-12-14 주식회사 서큘러스 인터렉션 로봇 및 이를 이용한 콘텐츠 인터렉션 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3211186B2 (ja) * 1997-12-15 2001-09-25 オムロン株式会社 ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
JP2001212779A (ja) * 2000-01-31 2001-08-07 Sony Corp 行動制御装置および行動制御方法、並びに記録媒体
KR100779088B1 (ko) * 2005-12-09 2007-11-27 한국전자통신연구원 로봇 제어 장치 및 그 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101234289B1 (ko) * 2011-02-28 2013-02-18 동명대학교산학협력단 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템 및 그 방법
KR20130083099A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 로봇 및 이상 상황 판단과 대응방법
CN103496633A (zh) * 2012-03-21 2014-01-08 通用汽车环球科技运作有限责任公司 推断让机器人系统运动的操作者的意图的方法
WO2014109421A1 (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 단말기 및 그 동작 제어 방법
KR20140130045A (ko) * 2013-04-29 2014-11-07 한성대학교 산학협력단 자율도 조정과 인간 조작자 개입을 통한 hri 로봇 시스템
KR20190079255A (ko) * 2017-12-27 2019-07-05 (주) 퓨처로봇 로봇 서비스 학습 시스템 및 그 방법
KR20200036089A (ko) * 2018-09-20 2020-04-07 한국전자통신연구원 상호 작용 장치 및 방법
US10800043B2 (en) 2018-09-20 2020-10-13 Electronics And Telecommunications Research Institute Interaction apparatus and method for determining a turn-taking behavior using multimodel information

Also Published As

Publication number Publication date
KR101239274B1 (ko) 2013-03-06

Similar Documents

Publication Publication Date Title
KR101239274B1 (ko) 상호작용성 로봇
EP1494210B1 (en) Speech communication system and method, and robot apparatus
EP2426598B1 (en) Apparatus and method for user intention inference using multimodal information
JP4181590B2 (ja) インタフェース装置及びインタフェース処理方法
JP6941134B2 (ja) タスクを遂行することにおいてユーザを支援するための支援システム、方法、およびプログラム
CN109559742B (zh) 语音控制方法、系统、存储介质及计算机设备
JP2017010518A (ja) 人工知能に基づく知能ロボットの制御システム、方法及び装置
KR102367395B1 (ko) 홈 네트워크를 관리하는 서버 및 이의 제어방법
KR20120047577A (ko) 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
KR20100086262A (ko) 로봇 및 그 제어방법
CN112135553A (zh) 用于执行清洁操作的方法和设备
Woo et al. Conversation system based on computational intelligence for robot partner using smart phone
Efthimiou et al. The MOBOT platform–showcasing multimodality in human-assistive robot interaction
US11530836B2 (en) Air conditioner and control method thereof
Zhang et al. A fusion-based spiking neural network approach for predicting collaboration request in human-robot collaboration
JP2005129046A (ja) 環境内のユーザの移動をモデル化する方法およびシステム
KR101652705B1 (ko) 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법
Wagner et al. Social Signal Interpretation (SSI) A Framework for Real-time Sensing of Affective and Social Signals
Fotinea et al. The mobot human-robot interaction: Showcasing assistive hri
US20190286910A1 (en) Machine Learning of Context Data for Social and Contextual Scene Inferences
US10824126B2 (en) Device and method for the gesture control of a screen in a control room
Niitsuma et al. Implementation of robot behaviors based on ethological approach for monitoring support system in Intelligent Space
KR20130047276A (ko) 로봇 상호 간의 감정표현방법
KR20140130045A (ko) 자율도 조정과 인간 조작자 개입을 통한 hri 로봇 시스템
Mubashira et al. A Comprehensive Study on Human Interaction with IoT Systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee