KR20190115504A - 감정 표현 로봇의 제어 장치 및 그 방법 - Google Patents

감정 표현 로봇의 제어 장치 및 그 방법

Info

Publication number
KR20190115504A
KR20190115504A KR1020180030083A KR20180030083A KR20190115504A KR 20190115504 A KR20190115504 A KR 20190115504A KR 1020180030083 A KR1020180030083 A KR 1020180030083A KR 20180030083 A KR20180030083 A KR 20180030083A KR 20190115504 A KR20190115504 A KR 20190115504A
Authority
KR
South Korea
Prior art keywords
situation
robot
information
feedback
voice
Prior art date
Application number
KR1020180030083A
Other languages
English (en)
Other versions
KR102083229B1 (ko
Inventor
주다영
오영훈
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020180030083A priority Critical patent/KR102083229B1/ko
Publication of KR20190115504A publication Critical patent/KR20190115504A/ko
Application granted granted Critical
Publication of KR102083229B1 publication Critical patent/KR102083229B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

감정 표현 로봇의 제어 장치 및 방법을 개시한다. 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치는 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신하는 감각 신호 수신부와, 상기 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 상기 로봇의 감정 상황을 나타내는 상황 정보를 결정하는 상황 인식부와, 상기 상황 정보에 대응되는 피드백 정보를 생성하는 피드백 정보 생성부와, 상기 피드백 정보에 포함되는 피드백 종류 및 피드백 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제어부를 포함한다.

Description

감정 표현 로봇의 제어 장치 및 그 방법{APPARATUS AND METHOD CONTROLLING EMOTIONAL EXPRESION ROBOT}
본 발명은 감정 표현 로봇의 제어에 관한 것으로, 보다 상세하게는 생체 모방을 바탕으로 로봇과 사람간의 감정 상호작용이 더욱 원활해질 수 있도록 하는 감정 표현 로봇의 제어 장치에 관한 것이다.
캐나다 브리티시 컬럼비아 대학의 연구팀은 로봇이 동물이 숨을 쉬는 것과 같은 동작을 했을 때 사람들이 더욱 안정적이고 행복한 감정을 느낀다는 것을 밝혀 냈다. 이는 간단하게 동물이 숨을 쉬는 동작을 모방한 것만으로도 사람들이 받는 느낌에 큰 차이가 있음을 보여주는 매우 중요한 사례이다.
이러한 사례는 로봇의 생체모방형 인터랙션 기술의 중요성을 보여준다.
노인 요양 시설에 배치된 물개 로봇 파로(Paro) 로봇은 일본 산업기술총합연구소(AIST)에서 개발된 세계 최초 심리치료로봇이다. 다수의 실험과 논문을 통해, 환자의 기운을 북돋고 혈압과 맥박을 안정시키는 효과가 있는 것으로 나타났다. 치매 환자를 대상으로 한 실험에서는 Paro가 컨버세이션 스타터(Conversation starter)로서 기능하여 환자들간의 사회적인 관계형성에 도움이 된다는 결과가 나타났다. 환자들의 정서적인 안정에 도움이 된다는 인터뷰 결과도 나타났다. Paro 로봇은 수염을 잡아당기면 마구 짖기도 하며, 껴안아달라고 애교를 부리기도 하며 쓰다듬으면 눈을 살포시 감기도 한다. 이러한 실제 생명체를 모방한 동물형 로봇의 인터랙션 기술은 로봇에 대한 수용성을 높이는 효과가 있다.
네덜란드 트웬테 대학(Twente University)의 연구 결과는 로봇과 사람이 사회적 관계를 형성하려면 로봇의 외형이 중요하다고 한다.
따라서 외형에 적합하고 적절한 인터랙션이 적용되어야 로봇에 대한 사람의 '수용성'이 높아질 수 있다.
한국 특허공보 제10-1101750호, "로봇의 감성표현 방법"(2011.12.27.)
본 발명은 동물의 생체를 모방한 형태의 로봇 인간과 깊은 상호 작용을 수행할 수 있도록 하는 감정 표현 로봇의 제어 장치를 제공하고자 한다.
본 발명은 기존의 로봇 장치에 모듈화되거나 소프트웨어 형태로 적용될 수 있는 감정 표현 로봇의 제어 장치를 제공하고자 한다.
본 발명은 가정 환경에서 유아 또는 고령층과의 커뮤니케이션을 통해 건강 및 삶의 질 등을 향상시킬 수 있는 감정 표현 로봇의 제어 장치를 제공하고자 한다.
본 발명은 동물을 키우기 어려운 환경에서 로봇을 통해 간접적으로 정서 발달을 이룰 수 있도록 하는 감정 표현 로봇의 제어 장치를 제공하고자 한다.
상술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치는, 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신하는 감각 신호 수신부와, 상기 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 상기 로봇의 감정 상황을 나타내는 상황 정보를 결정하는 상황 인식부와, 상기 상황 정보에 대응되는 피드백 정보를 생성하는 피드백 정보 생성부와, 상기 피드백 정보에 포함되는 피드백 종류 및 피드백 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제어부를 포함한다.
상기 감각 신호는, 상기 로봇의 주변 상황으로부터 감지되는 음성 신호, 영상 신호 및 위치 신호를 포함할 수 있다.
상기 상황 정보는, 위협 받는 상황, 다른 로봇을 만난 상황, 심심한 상황, 기쁜 상황, 경계하는 상황, 삐진 상황, 잘 모르겠는 상황, 화난 상황, 슬픈 상황, 또는 애정 받고 싶은 상황일 수 있다.
상기 제어부는, 상기 상황 정보가 위협 받는 상황인 경우, 상기 피드백 종류를 뒷걸음질치는 움직임으로 결정하고, 상기 피드백 요소 중 이동 속도를 기 설정된 레벨로 결정하고, 기설정된 레벨의 경고음을 발생하도록 상기 제어 신호를 출력할 수 있다.
상기 상황 정보는, 상기 감각 신호에 기초하여 객체, 객체의 행동 및 주변 환경을 감지해 결정될 수 있다.
상기 피드백 정보에 포함되는 피드백 종류는, 음성내용 및 움직임내용일 수 있다.
상기 피드백 정보에 포함되는 피드백 요소는, 음성볼륨, 이동속도, 이동방향 및 이동범위일 수 있다.
상기 음성출력은, 상기 상황 정보에 기초하여 상향식, 복합식 또는 하향식으로 출력될 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 방법은 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신하는 단계와, 상기 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 상기 로봇의 감정 상황을 나타내는 상황 정보를 결정하는 단계와, 상기 상황 정보에 대응되는 피드백 정보를 생성하는 단계와, 상기 피드백 정보에 포함되는 피드백 종류 및 피드백 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 단계를 포함한다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 동물의 생체를 모방한 형태의 로봇 인간과 깊은 상호 작용을 수행할 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 기존의 로봇 장치에 모듈화되거나 소프트웨어 형태로 적용될 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 가정 환경에서 유아 또는 고령층과의 커뮤니케이션을 통해 건강 및 삶의 질 등을 향상시킬 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 동물을 키우기 어려운 환경에서 로봇을 통해 간접적으로 정서 발달을 이룰 수 있도록 할 수 있다.
도 1은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치의 구성도이다.
도 2 내지 4는 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치의 상황 정보 및 피드백 정보를 설명하기 위한 도면이다.
도 5는 다른 일 실시예에 따른 본 발명의 감정 표정 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 6은 다른 일 실시예에 따른 감정 표현 로봇의 제어 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 7은 다른 일 실시예에 따른 본 발명의 감정 표현 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 8은 다른 일 실시예에 따른 감정 표현 로봇의 제어 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 9는 본 발명의 음성출력의 방식을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 방법의 흐름도이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 사용되는 “실시예”, “예”, “측면”, “예시” 등은 기술된 임의의 양상(aspect) 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되어야 하는 것은 아니다.
또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다. 즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.
또한, 본 명세서 및 청구항들에서 사용되는 단수 표현("a" 또는 "an")은, 달리 언급하지 않는 한 또는 단수 형태에 관한 것이라고 문맥으로부터 명확하지 않는 한, 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
또한, 본 명세서 및 청구항들에서 사용되는 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
한편, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치의 구성도이다.
도 1을 참조하면, 감정 표현 로봇의 제어 장치(100)는 감각 신호 수신부(110)와, 상황 인식부(120)와, 피드백 정보 생성부(130)와, 제어부(140)를 포함한다.
감각 신호 수신부(110)는 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신한다.
로봇은 동물 형상을 가질 수 있다.
로봇은 동물의 생체를 모방한 로봇 일 수 있다.
로봇은 얼굴, 목, 발 및 로봇을 둘러싸는 털을 신호에 의해 움직일 수 있다.
로봇은 얼굴 내의 눈, 눈동자, 눈썹, 코 및 입 등 얼굴을 구성하는 모든 부위를 신호에 따라 움직여 감정을 표현할 수 있다.
로봇은 신호에 의해 발을 사용하여 이동할 수 있다.
로봇은 신호에 의해 음성을 출력할 수 있다.
감각 신호는 주변 상황의 감지에 의해 획득되는 음성 신호, 주변 환경에서 발생되는 소리 신호, 영상 신호 및 촉각 신호, 위치 신호 등을 포함할 수 있다.
센서는 영상 신호를 수신하는 카메라, 음성 신호 및 소리 신호를 수신하는 마이크, 피부에 내장되어 촉각을 감지하는 센서, 로봇의 위치를 나타내는 위치 신호를 수신하는 GPS(Global Positioning System) 센서 등을 포함할 수 있다.
주변 상황은 로봇을 중심으로 센서에 의해 수신되는 사람, 동물, 로봇 등의 객체뿐 아니라, 책상, 나무, 벽, 도로 등의 물건, 날씨, 온도, 기타 공간을 구성하는 모든 정보를 의미한다.
객체는 사람, 동물, 로봇 등 본 발명의 로봇이 인터랙션할 수 있는 대상을 의미한다.
상황 인식부(120)는 상황 정보를 결정 할 수 있다.
상황 정보는 로봇의 감정 상황을 나타내는 정보일 수 있다.
상황 정보는 기 설정되어 저장된 정보일 수 있다.
예를 들면, (1)심심한 상황, (2)기쁜 상황, (3)화난 상황, (4)애정 받고 싶은 상황, (5)경계하는 상황, (6)삐진 상황, (7)슬픈 상황, (8)잘 모르겠는 상황, (9)다른 로봇을 만난 상황, (10)위협 받는 상황 등이 기 설정되어 저장된 상황 정보일 수 있다.
상황 인식부(120)는 수신한 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 기 저장된 상황 정보 중 어느 하나를 결정할 수 있다.
상황 인식부는(120)는 수신한 감각 신호를 기 설정된 상황 조건에 따라 기 저장된 상황 정보에 대응 시킬 수 있다.
예를 들면, 심심한 상황에 대응 되는 기 설정된 상황 조건은 사용자 또는 인식된 적 있는 사람이 있는 상황에서, 일정 시간 동안 사용자 또는 인식된 적 있는 사람이 로봇을 부르거나, 만져주지 않는 조건인 경우 심심한 상황인 상황 정보로 결정할 수 있다.
기쁜 상황에 대응 되는 기 설정된 상황 조건은 사용자가 있는 상황에서, 사용자의 표정이 기쁜 표정으로 인식되는 조건인 경우 기쁜 상황인 상황 정보로 결정할 수 있다.
화난 상황에 대응 되는 기 설정된 상황 조건은 인식된 적 있는 사람이 로봇을 때리는 조건인 경우 화난 상황인 상황 정보로 결정할 수 있다.
애정 받고 싶은 상황에 대응 되는 기 설정된 상황 조건은 사용자 또는 인식된 적 있는 사람이 일정 시간 동안 의자에 앉아 있는 조건인 경우 애정 받고 싶은 상황인 상황 정보로 결정할 수 있다.
경계하는 상황에 대응 되는 기 설정된 상황 조건은 사용자의 거주 공간에 사용자가 없는 상황에서, 인식된 적 없는 사람의 얼굴이 수신된 조건인 경우 경계하는 상황인 상황 정보로 결정할 수 있다.
삐진 상황에 대응 되는 기 설정된 상황 조건은 사용자가 일정 시간 동안 로봇의 이름(호출어)을 부르지 않는 조건인 경우 삐진 상황인 상황 정보로 결정할 수 있다.
슬픈 상황에 대응 되는 기 설정된 상황 조건은 사용자가 슬픈 얼굴 표정을 가진 조건인 경우 슬픈 상황인 상황 정보로 결정할 수 있다.
잘 모르겠는 상황에 대응 되는 기 설정된 상황 조건은 사용자로부터 저장되지 않은 물음을 받은 조건인 경우 잘 모르겠는 상황인 상황 정보로 결정할 수 있다.
다른 로봇을 만난 상황에 대응 되는 기 설정된 상황 조건은 로봇이 다른 로봇을 발견한 조건인 경우 다른 로봇을 만난 상황인 상황 정보로 결정할 수 있다.
위협 받는 상황에 대응 되는 기 설정된 상황 조건은 인식된 적 없는 사람이 로봇에 접근하는 조건인 경우 위협 받는 상황인 상황 정보로 결정할 수 있다.
이러한 기 설정된 상황 조건은 제조자의 설정에 의해 정해지고 변경될 수 있다.
또는, 상황 정보는 수신된 감각 신호에 호출어가 포함되어 있는지 여부에 대한 정보일 수 있다.
또는, 상황 정보는 감지된 얼굴이 주인이 있는지 여부에 대한 정보일 수 있다.
또는, 상황 정보는 수신한 영상 신호에 주인이 있는지, 인식된 적 있는 사람이 있는지에 대한 정보와, 수신한 영상 신호 및 위치 신호에 의해 로봇의 주 거주공간인지에 대한 정보를 포함할 수 있다.
또는, 상황 정보는, 수신한 영상 신호에 주인이 있는지, 인식된 적 있는 사람이 있는지 여부에 대한 정보 및 영상 신호의 주인 또는 인식된 적 있는 사람의 여가 시간인지에 대한 정보를 포함할 수 있다.
피드백 정보 생성부(130)는 피드백 정보를 생성한다.
피드백 정보는 결정된 상황 정보에 대응 하는 정보이다.
피드백 정보는 피드백 종류 및 피드백 요소를 포함한다.
피드백 종류는 출력되는 음성내용, 움직임내용 등을 의미한다.
움직임내용은 이동 방향, 발의 움직임, 입 모양 및 움직임, 눈 모양 및 움직임, 눈썹 모양 및 움직임, 꼬리 모양 및 움직임, 목의 움직임, 귀의 움직임, 털의 움직임 동작 등을 포함한다.
피드백 요소는 출력되는 음성볼륨, 이동속도, 이동방향 및 이동범위 등을 의미한다.
피드백 요소 각각은 강도에 따라 가장 낮은 강도의 0부터 가장 높은 강도의 5까지 중 하나의 레벨을 가질 수 있다.
피드백 요소의 단위 레벨 강도는 제조자의 설정에 의해 정해질 수 있다.
제어부(140)는 피드백 정보 생성부로부터 피드백 정보를 수신한다.
제어부(140)는 피드백 정보에 기초하여 음성출력 및 움직임을 수행하도록 제어하는 제어 신호를 출력한다.
제어 신호는 로봇을 구성하는 출력 장치에 전달 되어 음성출력 및 움직임을 수행한다.
출력 장치는 제어부(140)로부터 제어 신호를 수신하여 음성출력 및 움직임 등을 수행하는 장치를 의미한다.
상황 정보 및 피드백 정보에 대해 설명한다.
기 설정된 상황 정보는 (1)심심한 상황, (2)기쁜 상황, (3)화난 상황, (4)애정 받고 싶은 상황, (5)경계하는 상황, (6)삐진 상황, (7)슬픈 상황, (8)잘 모르겠는 상황, (9)다른 로봇을 만난 상황, (10)위협 받는 상황일 수 있다.
(1)상황 정보가 심심한 상황인 경우, 음성내용은 낑낑대는 소리일 수 있고, 움직임내용은 꼬리를 내린 상태로 느리게 좌우로 움직이는 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 4, 2, 2의 레벨일 수 있다.
음성볼륨은 레벨이 0에서 5로 갈수록 볼륨이 커질 수 있다.
이동속도는 레벨이 0에서 5로 갈수록 빨라질 수 있다.
이동범위는 레벨이 0에서 5로 갈수록 넓은 범위일 수 있다.
(2)상황 정보가 기쁜 상황인 경우, 음성내용은 상향식 음원일 수 있고, 움직임내용은 꼬리를 들고 흔들며, 원 모양 형태로 움직이는 움직임일 수 있으며 음성볼륨, 이동속도 및 이동범위는 각각 5, 4, 4의 레벨일 수 있다.
이때, 상향식 음원은 점점 높아지는 음을 가지는 음원을 의미한다.
(3)상황 정보가 화난 상황인 경우, 음성내용은 짖는 소리 또는 그르렁거리는 소리일 수 있고, 움직임내용은 눈을 매우 가늘게 뜨고, 귀를 이마 쪽으로 모으며, 화가 나게 한 대상을 향해 매우 느리게 걸어가는 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 2, 1, 3의 레벨일 수 있다.
(4)상황 정보가 애정 받고 싶은 상황인 경우, 음성내용은 복합식 음원일 수 있고, 움직임내용은 주인(또는 사람)을 보면서 위로 올려다보는 움직임이거나, 주인(또는 사람)을 향해 위로 뛰었다가 다시 앉는 행동을 반복하는 움직임이거나, 주인(또는 사람)의 얼굴에 입 부분을 비비는 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 3, 3, 3의 레벨일 수 있다.
이때, 복합식 음원은 낮아지다 높아지는 음 또는 높아지다가 낮아지는 음을 가지는 음원을 의미한다.
(5)상황 정보가 경계하는 상황인 경우, 음성내용은 그르렁거리는 소리일 수 있고, 움직임내용은 이빨을 보이거나 입을 살짝 벌린 상태에서 자세를 약간 낮추고, 시선을 사람 또는 물체에 맞추는 움직임으로 움직임일 수 있으며 음성볼륨, 이동속도 및 이동범위는 각각 3, 1, 0의 레벨일 수 있다.
(6)상황 정보가 삐진 상황인 경우, 음성내용은 없을 수 있고, 움직임내용은 사용자와 등지고 앉고, 주인과 시선을 마주치지 않는 움직임일 수 있으며 음성볼륨, 이동속도 및 이동범위는 각각 1, 1, 1의 레벨일 수 있다.
(7)상황 정보가 슬픈 상황인 경우, 음성내용은 하향식 음원일 수 있고, 움직임내용은 꼬리를 내린 상태로 느리게 일정 방향으로 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 1, 2, 2의 레벨일 수 있다.
이때, 하향식 점점 낮아지는 음을 가지는 음원을 의미한다.
(8)상황 정보가 잘 모르겠는 상황인 경우, 음성내용은 없을 수 있고, 움직임내용은 제자리에서 좌우로 회전하는 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 1, 1, 0의 레벨일 수 있다.
(9)상황 정보가 다른 로봇을 만난 상황인 경우, 음성내용은 상향식 음원일 수 있고, 움직임내용은 꼬리를 살짝 세운 상태로 반가워하며 다른 로봇의 꼬리를 잡으려고 빙빙 회전하는 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 4, 5, 4의 레벨일 수 있다.
(10)상황 정보가 위협 받는 상황인 경우, 음성내용은 경고음일 수 있고, 움직임내용은 뒷걸음질일 수 있으며, 음성볼륨, 이동속도, 이동방향 및 이동범위는 각각, 5, 5, 3의 레벨일 수 있다.
도 2 내지 4는 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치의 상황 정보 및 피드백 정보를 설명하기 위한 도면이다.
도 2 내지 4의 각 상황에서 검정 원은 로봇을 나타낸 것이다.
도 2 내지 4를 참조하면, (1)심심한 상황인 경우, 꼬리를 내린 상태로 좌우로 직선상에서 반복 이동(넓은 범위)할 수 있다.
(2) 기쁜 상황인 경우, 꼬리를 들고 흔들며, 원 모양을 그리며 이동할 수 있다.
(3)화난 상황인 경우, 눈을 매우 가늘게 뜨고, 귀를 이마 쪽으로 모으며, 화가 나게 한 대상을 노려볼 수 있다. 입을 벌리거나 이를 드러낼 수 있다. 털의 경우 곤두세울 수 있다. 꼬리는 일자로 쭉 뻗을 수 있다. 으르렁거리는 소리는 점점 커질 수 있다.
(4)애정 받고 싶은 상황인 경우, 주인(또는 사람)의 정면을 기준으로 앞뒤로 이동하는 것을 반복할 수 있다. 주인(또는 사람)을 향해 위로 올려다볼 수 있다. 올려다 보는 각도의 경우 기 설정될 수 있다.
(5)경계하는 상황인 경우, 정지한 상태에서 이빨을 보이거나 입을 살짝 벌린 상태에서 매우 낮은 으르렁거리는 소리를 낼 수 있다. 눈은 다소 가늘게 뜨고, 경계하는 대상을 노려볼 수 있다.
(6)삐진 상황인 경우, 객체와 등지고 앉을 수 있다. 객체와 시선을 잘 마주치지 않을 수 있다.
(7)슬픈 상황인 경우, 별 다른 패턴의 변화 없이 이동 속도가 느려질 수 있다. 꼬리를 내린 상태로 움직일 수 있다. 눈의 크기는 작아지고, 입을 벌리지 않을 수 있다.
(8)잘 모르겠는 상황인 경우, 정지 상태에서 좌우로 일정 각도 이상 회전했다 복귀할 수 있다.
예를 들면, 좌우로 120도 가량 회전했다 복귀하도록 설정할 수도 있다.
(9)다른 로봇을 만난 상황인 경우, 꼬리를 살짝 세운 상태로 다른 로봇의 꼬리를 잡으려고 빙빙 회전할 수 있다.
(10)위협 받는 상황인 경우, 위협을 가한 대상 방향으로 약간 뒤로 물러섰다가 조금 빠르게 앞으로 달려 나올 수 있다.
도 5는 다른 일 실시예에 따른 본 발명의 감정 표정 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 5를 참조하면, S510 단계에서, 감각 신호 수신부는 소리 신호(음성 신호)를 감지 할 수 있다.
S520 단계에서, 상황 인식부는 감지된 소리 신호(음성 신호)에 호출어가 포함되어 있는지 여부를 판단할 수 있다.
예를 들면, 호출어란 로봇의 이름일 수 있다. 즉, 감지된 소리 신호에 '퍼피' 라는 소리가 포함되어 있는지 확인할 수 있다.
이때, 상황 정보는 호출어 존재 여부일 수 있다.
호출어가 포함되어 있다고 판단된 경우 S530 단계에서, 피드백 정보 생성부는, 호출어 있다는 상황 정보에 대응되는 음성출력을 증가, 이동속도를 증가 및 이동범위를 증가시키는 정보를 포함하는 피드백 정보를 생성할 수 있다.
도 5에서 음성출력의 증가 또는 감소는 음성볼륨의 증가 또는 감소를 의미한다.
호출어가 포함되어 있지 않다고 판단된 경우 S540 단계에서, 피드백 정보 생성부는, 호출어가 없다는 상황 정보에 대응되는 음성출력의 볼륨을 감소, 이동속도를 감소 및 이동범위를 감소시키는 정보를 포함하는 피드백 정보를 생성할 수 있다.
이때, 음성출력의 볼륨의 증가 또는 감소, 이동속도의 증가 또는 감소, 및 이동범위의 증가 또는 감소는, 현재 음성출력 및 움직임에서 증가 또는 감소를 의미할 수 있다.
예를 들면, 현재 도 2의 애정 받고 싶은 상황의 상황 정보에 대응하는 피드백 정보를 수행 시작하는 경우, 음성출력, 이동속도 및 이동범위는 각각 3, 3, 3이나, 수행 전후로 '퍼피'라는 호출어를 감지하였을 때, 음성출력, 이동속도 및 이동범위를 +1씩 증가시켜 동작하도록 할 수 있다.
이때, 감정 표현 로봇은 기 저장된 상황에 음성출력, 이동속도 및 이동범위의 임계 레벨이 설정되어 각 상황에 따른 감정 표현을 적절히 수행할 수 있다.
증가 또는 감소의 정도는 사용자(주인)의 설정에 의해 정해질 수 있다.
즉, 예를 들면, +1, -2 등으로 설정할 수 있다.
도 6은 다른 일 실시예에 따른 감정 표현 로봇의 제어 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 6에서 음성출력은 음성볼륨을 의미한다.
도 6을 참조하면, S610 단계에서, 상황 인식부는 감각 신호 수신부가 수신한 영상 신호에 의해 객체의 얼굴을 감지할 수 있다.
객체는 사용자, 동물 또는 로봇일 수 있다.
S620 단계에서, 상황 인식부는 감지된 얼굴이 주인인지 여부를 판단할 수 있다.
이때, 감지된 얼굴에 주인이 있는지 여부에 대한 정보가 상황 정보일 수 있다.
주인의 얼굴이 감지된 경우 S630 단계에서, 상황 인식부는 음성출력을 증가, 이동속도를 증가, 이동범위를 증가시키는 정보를 포함하는 피드백 정보를 생성할 수 있다.
주인의 얼굴이 감지되지 않은 경우 S640 단계에서, 상황 인식부는 음성출력을 감소, 이동속도를 감소, 이동범위를 감소시키는 정보를 포함하는 피드백 정보를 생성할 수 있다.
이때, 음성출력의 증가 또는 감소, 이동속도의 증가 또는 감소, 및 이동범위의 증가 또는 감소는, 현재 음성출력 및 움직임에서 증가 또는 감소를 의미할 수 있다.
증가 또는 감소의 정도는 사용자(주인)의 설정에 의해 정해질 수 있다.
예를 들면, 기쁜 상황인 경우, 음성볼륨, 이동속도 및 이동범위는 각각 5, 4, 4의 레벨일 수 있다. 하지만 이러한 피드백 정보를 수행하기 전 또는 후에 주인의 얼굴을 감지한 경우, 음성볼륨, 이동속도 및 이동범위를 각각 5, 5, 5의 레벨로 +1씩 증가시켜 행동하도록 할 수 있다.
이때, 음성볼륨은 최대치 5의 레벨을 갖기 때문에 5를 유지할 수 있다.
피드백 요소의 레벨은 5 이상의 값을 갖도록 할 수도 있다.
화난 상황인 경우, 음성볼륨, 이동속도 및 이동범위는 각각 2, 1, 3의 레벨일 수 있다. 하지만 이러한 피드백 정보를 수행하기 전 또는 후에 주인의 얼굴을 감지한 경우, 음성볼륨, 이동속도 및 이동범위를 각각 -1씩 감소시켜 행동하도록 하고, 얼굴이 감지되지 않은 경우, 각각 +1씩 증가시켜 행동하도록 할 수 있다.
화난 상황인 경우처럼 상황에 따라 주인의 얼굴 감지된 경우 감소시키고, 주인의 얼굴이 감지되지 않은 경우 증가시키도록 설정할 수 있다.
경계하는 상황인 경우, 음성볼륨, 이동속도 및 이동범위는 각각 3, 1, 0의 레벨일 수 있다. 하지만 이러한 피드백 정보를 수행하기 전 또는 후에 주인의 얼굴을 감지한 경우, 음성볼륨, 이동속도 및 이동범위를 각각 +1씩 증가시켜 행동하도록 하고, 얼굴이 감지되지 않은 경우, 각각 -1씩 감소시켜 행동하도록 할 수 있다.
다른 로봇을 만난 상황인 경우, 음성볼륨, 이동속도 및 이동범위는 각각 4, 5, 4의 레벨일 수 있다. 하지만 이러한 피드백 정보를 수행하기 전 또는 후에 주인의 얼굴을 감지한 경우, 음성볼륨, 이동속도 및 이동범위를 각각 +1씩 증가시켜 행동하도록 하고, 얼굴이 감지되지 않은 경우, 각각 -1씩 감소시켜 행동하도록 할 수 있다.
위협 받는 상황인 경우, 음성볼륨, 이동속도 및 이동범위는 각각 5, 5, 3의 레벨일 수 있다. 하지만 이러한 피드백 정보를 수행하기 전 또는 후에 주인의 얼굴을 감지한 경우, 음성볼륨, 이동속도 및 이동범위를 각각 -1씩 감소시켜 행동하도록 하고, 얼굴이 감지되지 않은 경우, 각각 +1씩 증가시켜 행동하도록 할 수 있다.
위협 받는 상황인 경우처럼 상황에 따라 주인의 얼굴 감지된 경우 감소시키고, 주인의 얼굴이 감지되지 않은 경우 증가시키도록 설정할 수 있다.
도 6에 도시된 동작은 기쁜 상황, 화난 상황, 경계하는 상황, 다른 로봇을 만난 상황, 위협 받는 상황에만 수행되고, 이외 상황에서는 수행되지 않을 수 있으며, 이는 제조자의 설정에 의해 변경될 수 있다.
또한, 주인의 얼굴 인식에 의해 음성볼륨, 이동속도 및 이동범위의 증감뿐만 아니라, 음성내용, 움직임내용 등이 변경될 수 있다.
이는 사용자의 설정에 의해 정해질 수 있다.
또한, 기 저장된 상황 정보에 따라, 주인의 얼굴이 인식된 경우 음성출력, 이동속도, 이동범위의 레벨을 감소시킬 수도 있다.
예를 들면, 화난 상황이 수행되는 경우, 음성볼륨, 이동속도 및 이동범위는 각각 2, 1, 3의 레벨일 수 있다. 이때, 화난 상황 수행 시작 전 또는 후로 주인의 얼굴이 인식된 경우, 음성볼륨, 이동속도 및 이동범위는 각각 1, 1, 2의 레벨로 -1씩 감소시킬 수 있다.
이때, 이동속도의 임계 레벨을 1로 설정한 경우 -1 감소시켜도 1을 유지할 수 있다.
도 7은 다른 일 실시예에 따른 본 발명의 감정 표현 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 7에서 음성출력은 음성볼륨을 의미한다.
도 7을 참조하면, S702 단계에서 상황 인식부는 감각 신호 수신부가 수신한 영상 신호에 의해 객체의 얼굴을 감지하고 주인이 있는 지, 인식된 적 있는 사람이 있는지 여부를 판단할 수 있다.
또는 S702 단계에서 인터랙션 객체가 결정되고, 그 결정된 객체가 주인인지, 인식된적 있는 사람인지 여부를 판단할 수도 있다.
객체는 사람, 동물 또는 로봇 등일 수 있다.
감지된 얼굴 중 주인이 있는 경우 S704 단계에서, 상황 인식부는 감각 신호 수신부가 수신한 영상 신호 또는 위치 신호에 의해 로봇의 위치가 주 거주공간인지 여부를 판단한다.
로봇의 주 거주 공간으로 판단된 경우 S706 단계에서, 피드백 정보 생성부는 음성출력 +2, 이동속도 +2, 이동범위 +2의 정보를 포함하는 피드백 정보를 생성할 수 있다.
로봇의 주 거주 공간이 아닌 것으로 판단된 경우 S708 단계에서, 피드백 정보 생성부는 음성출력 -1, 이동속도 -1, 이동범위 -1의 정보를 포함하는 피드백 정보를 생성할 수 있다.
이때, 음성출력, 이동속도, 이동범위의 증가 또는 감소 레벨은 사용자의 설정에 의해 정해질 수 있다.
인식된 적 있는 사람이 있는 경우 S710 단계에서, 상황 인식부는 로봇의 위치가 주 거주공간인지 여부를 판단한다.
로봇의 주 거주공간으로 판단된 경우 S712 단계에서, 피드백 정보 생성부는 음성출력 +0, 이동속도 +0, 이동범위 +0의 정보를 포함하는 피드백 정보를 생성할 수 있다.
로봇의 주 거주공간이 아닌 것으로 판단된 경우 S714 단계에서, 피드백 정보 생성부는 음성출력 -3, 이동속도 -3, 이동범위 -3의 정보를 포함하는 피드백 정보를 생성할 수 있다.
감지된 얼굴에 인식된 적 있는 사람이 없는 경우 S716 단계에서, 상황 인식부는 로봇의 위치가 주 거주공간인지 여부를 판단한다.
로봇의 주 거주공간으로 판단된 경우 S718 단계에서, 피드백 정보 생성부는 음성출력 -2, 이동속도 -2, 이동범위 -2의 정보를 포함하는 피드백 정보를 생성할 수 있다.
로봇의 주 거주공간이 아닌 것으로 판단된 경우 S720 단계에서, 피드백 정보 생성부는 음성출력 -5, 이동속도 -5, 이동범위 -5의 정보를 포함하는 피드백 정보를 생성할 수 있다.
도 8은 다른 일 실시예에 따른 감정 표현 로봇의 제어 장치의 상황 정보 및 피드백 정보를 설명하기 위한 흐름도이다.
도 8에서 음성출력은 음성볼륨을 의미한다.
도 8을 참조하면, 상황 인식부는 감각 신호 수신부가 수신한 영상 신호에 의해 객체의 얼굴을 감지하고 주인이 있는 지, 인식된 적 있는 사람인지여부를 판단할 수 있다.
또는, 상황 인식부는 감각 신호 수신부가 수신한 영상 신호에 의해 인터랙션 객체의 얼굴을 감지하고, 그 감지된 객체가 주인인지, 인식된 적 있는 사람인지 여부를 판단할 수도 있다.
상황 정보는 주인이 있는지, 인식된 적 있는 사람인지, 인식된 적 있는 사람이 아무도 없는지 대한 정보 및 주인이 있는 경우 주인 또는 인식된 적 있는 사람이 있는 경우 인식된 적 있는 사람의 여가 시간인지 여부에 대한 정보를 포함하는 정보일 수 있다.
객체는 사용자, 동물 또는 로봇일 수 있다.
감지된 얼굴에 주인이 있는 경우 S802 단계에서, 상황 인식부는 현 시간이 주인의 여가 시간인지 여부를 판단한다.
여가 시간인지 여부는 객체의 과거 인식 빈도가 넓었던 시간대에 대한 축적된 데이터를 바탕으로 판단될 수 있다. 즉, 인식 빈도가 넓었던 시간대를 여가 시간으로 보고 현 시간이 여가 시간인지 판단할 수 있다.
여가 시간으로 판단된 경우 S804 단계에서, 피드백 정보 생성부는 음성출력 +2, 이동속도 +2, 이동범위 +2의 정보를 포함하는 피드백 정보를 생성할 수 있다.
여가 시간이 아닌 것으로 판단된 경우 S806 단계에서, 피드백 정보 생성부는 음성출력 -1, 이동속도 -1, 이동범위 -1의 정보를 포함하는 피드백 정보를 생성할 수 있다.
이때, 음성출력, 이동속도, 이동범위의 증가 또는 감소 정도는 사용자에 의해 정해질 수 있다.
인식된 적 있는 사람이 있는 경우 S808 단계에서, 상황 인식부는 인식된 적 있는 사람의 여가 시간 인지 여부를 판단한다.
여가 시간으로 판단된 경우 S810 단계에서, 피드백 정보 생성부는 음성출력 +0, 이동속도 +0, 이동범위 +0의 정보를 포함하는 피드백 정보를 생성할 수 있다.
여가 시간이 아닌 것으로 판단된 경우 S812 단계에서, 피드백 정보 생성부는 음성출력 -3, 이동속도 -3, 이동범위 -3의 정보를 포함하는 피드백 정보를 생성할 수 있다.
감지된 얼굴에 인식된 적 있는 사람이 없는 경우 S814 단계에서, 상황 인식부는 로봇의 위치가 주 거주공간인지 여부를 판단한다.
주인이나 인식된 적 있는 사람의 여가 시간에 기초하여 현 시간이 여가 시간인지 판단한다.
여가 시간으로 판단된 경우 S816 단계에서, 피드백 정보 생성부는 음성출력 -2, 이동속도 -2, 이동범위 -2의 정보를 포함하는 피드백 정보를 생성할 수 있다.
여가 시간이 아닌 것으로 판단된 경우 S818 단계에서, 피드백 정보 생성부는 음성출력 -5, 이동속도 -5, 이동범위 -5의 정보를 포함하는 피드백 정보를 생성할 수 있다.
도 9는 본 발명의 음성출력의 방식을 설명하기 위한 도면이다.
도 9에서 (a)는 상향식 음성출력을 (b)는 복합식 음성출력을 (c)는 하향식 음성출력을 나타낸다.
감정 표현 로봇의 제어 장치는 상황 정보에 기초하여 상향식, 복합식 또는 하향식으로 음성출력을 출력할 수 있다.
도 9에서 (a)를 참조하면, 음성출력은 상황 정보에 기초하여 라, 시, 도와 같이 점차적으로 높아지는 음으로 출력될 수 있다.
도 9에서 (b)를 참조하면, 음성출력은 상황 정보에 기초하여 도, 라, 미와 같이 내려갔다 올라가는 음으로 출력될 수 있다.
도 9에서 (c)를 참조하면, 음성출력은 상황 정보에 기초하여 도, 시, 라와 같이 점차적으로 낮아지는 음으로 출력될 수 있다.
하향식 음성출력은 동작 완료, 배터리 부족 등의 상태를 표현하는데 사용될 수 있다.
하향식 음성출력은 부정적인 감정(또는 상황)을 표현하는데 사용될 수 있다.
상향식 음성출력은 알림, 시작음 등의 상태를 표현하는데 사용될 수 있다.
상향식 음성출력은 긍정적인 감정(또는 상황)을 표현하는데 사용될 수 있다.
즉, 기쁜 상황, 다른 로봇을 만난 상황 등 긍정적인 상황 정보에 대응되는 출력인 경우 상향식 음성출력으로 출력하고, 슬픈 상황 등 부정적인 상황 정보에 대응되는 출력인 경우 하향식 음성출력으로 출력할 수 있다.
도 10은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 방법의 흐름도이다.
도 10에 도시된 감정 표현 로봇의 제어 방법은 도 1에 도시된 감정 표현 로봇의 제어 장치에 의해 수행될 수 있다.
도 10을 참조하면, 감정 표현 로봇의 제어 장치는 S1010 단계에서, 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신한다.
감정 표현 로봇의 제어 장치는 S1020 단계에서, 상기 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 상기 로봇의 감정 상황을 나타내는 상황 정보를 결정한다.
감정 표현 로봇의 제어 장치는 S1030 단계에서, 상기 상황 정보에 대응되는 피드백 정보를 생성한다.
감정 표현 로봇의 제어 장치는 S1040 단계에서, 상기 피드백 정보에 포함되는 피드백 종류 및 피드백 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력한다.
감정 표현 로봇의 제어 방법은 도 1 내지 도 9를 참조하여 설명한 감정 표현 로봇의 제어 장치의 동작과 동일하므로 이외 상세한 설명은 생략한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신하는 감각 신호 수신부;
    상기 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 상기 로봇의 감정 상황을 나타내는 상황 정보를 결정하는 상황 인식부;
    상기 상황 정보에 대응되는 피드백 정보를 생성하는 피드백 정보 생성부; 및
    상기 피드백 정보에 포함되는 피드백 종류 및 피드백 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제어부를 포함하는
    감정 표현 로봇의 제어 장치.
  2. 제1항에 있어서,
    상기 감각 신호는,
    상기 로봇의 주변 상황으로부터 감지되는 음성 신호, 영상 신호 및 위치 신호를 포함하는
    감정 표현 로봇의 제어 장치.
  3. 제1항에 있어서,
    상기 상황 정보는,
    위협 받는 상황, 다른 로봇을 만난 상황, 심심한 상황, 기쁜 상황, 경계하는 상황, 삐진 상황, 잘 모르겠는 상황, 화난 상황, 슬픈 상황, 또는 애정 받고 싶은 상황인
    감정 표현 로봇의 제어 장치.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 상황 정보가 위협 받는 상황인 경우, 상기 피드백 종류를 뒷걸음질치는 움직임으로 결정하고, 상기 피드백 요소 중 이동 속도를 기 설정된 레벨로 결정하고, 기설정된 레벨의 경고음을 발생하도록 상기 제어 신호를 출력하는
    감정 표현 로봇의 제어 장치.
  5. 제1항에 있어서,
    상기 상황 정보는,
    상기 감각 신호에 기초하여 객체, 객체의 행동 및 주변 환경을 감지해 결정되는
    감정 표현 로봇의 제어 장치.
  6. 제1항에 있어서,
    상기 피드백 정보에 포함되는 피드백 종류는,
    음성내용 및 움직임내용인,
    감정 표현 로봇의 제어 장치.
  7. 제6항에 있어서,
    상기 피드백 정보에 포함되는 피드백 요소는,
    음성볼륨, 이동속도, 이동방향 및 이동범위인,
    감정 표현 로봇의 제어 장치.
  8. 제1항에 있어서,
    상기 음성출력은,
    상기 상황 정보에 기초하여 상향식, 복합식 또는 하향식으로 출력되는
    감정 표현 로봇의 제어 장치.
  9. 로봇의 주변 상황을 감지하기 위해 센서로부터 획득되는 감각 신호를 수신하는 단계;
    상기 감각 신호 및 기 설정된 상황 조건 중 적어도 어느 하나에 기초하여 상기 로봇의 감정 상황을 나타내는 상황 정보를 결정하는 단계;
    상기 상황 정보에 대응되는 피드백 정보를 생성하는 단계; 및
    상기 피드백 정보에 포함되는 피드백 종류 및 피드백 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 단계를 포함하는
    감정 표현 로봇의 제어 방법.
  10. 제9항에 있어서,
    상기 감각 신호는,
    상기 로봇의 주변 상황으로부터 감지되는 음성 및 영상 신호를 포함하는
    감정 표현 로봇의 제어 방법.
  11. 제9항에 있어서,
    상기 상황 정보는,
    위협 받는 상황, 다른 로봇을 만난 상황, 심심한 상황, 기쁜 상황, 경계하는 상황, 삐진 상황, 잘 모르겠는 상황, 화난 상황, 슬픈 상황, 또는 애정 받고 싶은 상황인
    감정 표현 로봇의 제어 방법.
  12. 제9항에 있어서,
    상기 상황 정보는,
    상기 감각 신호에 기초하여 객체, 객체의 행동 및 주변 환경을 감지해 결정되는
    감정 표현 로봇의 제어 방법.
  13. 제9항에 있어서,
    상기 피드백 정보에 포함되는 피드백 종류는,
    음성내용 및 움직임내용인,
    감정 표현 로봇의 제어 방법.
  14. 제13항에 있어서,
    상기 피드백 정보에 포함되는 피드백 요소는,
    음성볼륨, 이동속도, 이동방향 및 이동범위인,
    감정 표현 로봇의 제어 방법.
  15. 제9항에 있어서,
    상기 음성출력은,
    상기 상황 정보에 기초하여 상향식, 복합식 또는 하향식으로 출력되는
    감정 표현 로봇의 제어 방법.
KR1020180030083A 2018-03-15 2018-03-15 감정 표현 로봇의 제어 장치 및 그 방법 KR102083229B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180030083A KR102083229B1 (ko) 2018-03-15 2018-03-15 감정 표현 로봇의 제어 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180030083A KR102083229B1 (ko) 2018-03-15 2018-03-15 감정 표현 로봇의 제어 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20190115504A true KR20190115504A (ko) 2019-10-14
KR102083229B1 KR102083229B1 (ko) 2020-03-02

Family

ID=68171547

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180030083A KR102083229B1 (ko) 2018-03-15 2018-03-15 감정 표현 로봇의 제어 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102083229B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100639068B1 (ko) * 2004-09-06 2006-10-30 한국과학기술원 로봇의 감정표현장치 및 방법
KR101101750B1 (ko) 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법
KR20120121298A (ko) * 2011-04-26 2012-11-05 한국과학기술원 감정 음성 합성 기능을 가지는 보조 로봇 및 보조 로봇용 감정 음성 합성 방법 및 기록 매체
KR101336641B1 (ko) * 2012-02-14 2013-12-16 (주) 퓨처로봇 감성 교감 로봇 서비스 시스템 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100639068B1 (ko) * 2004-09-06 2006-10-30 한국과학기술원 로봇의 감정표현장치 및 방법
KR101101750B1 (ko) 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법
KR20120121298A (ko) * 2011-04-26 2012-11-05 한국과학기술원 감정 음성 합성 기능을 가지는 보조 로봇 및 보조 로봇용 감정 음성 합성 방법 및 기록 매체
KR101336641B1 (ko) * 2012-02-14 2013-12-16 (주) 퓨처로봇 감성 교감 로봇 서비스 시스템 및 그 방법

Also Published As

Publication number Publication date
KR102083229B1 (ko) 2020-03-02

Similar Documents

Publication Publication Date Title
Portugal et al. SocialRobot: An interactive mobile robot for elderly home care
KR102408257B1 (ko) 조기에 위험을 경고하는 방법 및 장치
JP2019164352A (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
US10144135B2 (en) System, method and computer program product for handling humanoid robot interaction with human
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
WO2018043235A1 (ja) 音源の方向を認識する自律行動型ロボット
KR20170087416A (ko) 음성 정동 변조
CN111002303B (zh) 识别装置、机器人、识别方法和存储介质
EP3923198A1 (en) Method and apparatus for processing emotion information
US11074491B2 (en) Emotionally intelligent companion device
JP6565853B2 (ja) コミュニケーション装置
JP7120060B2 (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
KR102051217B1 (ko) 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법
KR102083229B1 (ko) 감정 표현 로봇의 제어 장치 및 그 방법
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7327391B2 (ja) 制御装置、制御方法及びプログラム
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
JP6647636B2 (ja) 対話方法、対話システム、対話装置、及びプログラム
CN110625608A (zh) 机器人、机器人的控制方法以及存储介质
Esau et al. MEXI: Machine with Emotionally eXtended Intelligence.
KR20160033502A (ko) 감성 의자로봇 및 이의 제어방법
JP2024505503A (ja) 自然言語処理、理解及び生成を可能にする方法及びシステム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant