KR102051217B1 - 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법 - Google Patents

생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법 Download PDF

Info

Publication number
KR102051217B1
KR102051217B1 KR1020180060831A KR20180060831A KR102051217B1 KR 102051217 B1 KR102051217 B1 KR 102051217B1 KR 1020180060831 A KR1020180060831 A KR 1020180060831A KR 20180060831 A KR20180060831 A KR 20180060831A KR 102051217 B1 KR102051217 B1 KR 102051217B1
Authority
KR
South Korea
Prior art keywords
information
robot
interaction
emotion
user
Prior art date
Application number
KR1020180060831A
Other languages
English (en)
Inventor
주다영
오영훈
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020180060831A priority Critical patent/KR102051217B1/ko
Application granted granted Critical
Publication of KR102051217B1 publication Critical patent/KR102051217B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

감정 표현 로봇의 제어 장치 및 그 방법을 개시한다. 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치는, 사용자 상태 정보를 포함하는 주변 상황 정보를 수집하는 감각 정보 수신부와, 상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하는 감정 결정부와, 상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하는 인터랙션 정보 생성부와, 상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제1 제어부와, 상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 제2 제어부를 포함한다.

Description

생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING EMOTIONAL EXPRESSION OF BIOMIMETICS ROBOT}
본 발명은 감정 표현 로봇의 제어에 관한 것으로, 보다 상세하게는 로봇이 선제적으로(proactive) 사용자에게 인터랙션을 수행할 수 있도록 제어하는 장치 및 그 방법에 관한 것이다.
캐나다 브리티시 컬럼비아 대학의 연구팀은 로봇이 동물이 숨을 쉬는 것과 같은 동작을 했을 때 사람들이 더욱 안정적이고 행복한 감정을 느낀다는 것을 밝혀 냈다. 이는 간단하게 동물이 숨을 쉬는 동작을 모방한 것만으로도 사람들이 받는 느낌에 큰 차이가 있음을 보여주는 매우 중요한 사례이다.
이러한 사례는 로봇의 생체모방형 인터랙션 기술의 중요성을 보여준다.
노인 요양 시설에 배치된 물개 로봇 파로(Paro) 로봇은 일본 산업기술총합연구소(AIST)에서 개발된 세계 최초 심리치료로봇이다. 다수의 실험과 논문을 통해, 환자의 기운을 북돋고 혈압과 맥박을 안정시키는 효과가 있는 것으로 나타났다. 치매 환자를 대상으로 한 실험에서는 Paro가 컨버세이션 스타터(Conversation starter)로서 기능하여 환자들간의 사회적인 관계형성에 도움이 된다는 결과가 나타났다. 환자들의 정서적인 안정에 도움이 된다는 인터뷰 결과도 나타났다. Paro 로봇은 수염을 잡아당기면 마구 짖기도 하며, 껴안아달라고 애교를 부리기도 하며 쓰다듬으면 눈을 살포시 감기도 한다. 이러한 실제 생명체를 모방한 동물형 로봇의 인터랙션 기술은 로봇에 대한 수용성을 높이는 효과가 있다.
네덜란드 트웬테 대학(Twente University)의 연구 결과는 로봇과 사람이 사회적 관계를 형성하려면 로봇의 외형이 중요하다고 한다.
따라서 외형에 적합하고 적절한 인터랙션이 적용되어야 로봇에 대한 사람의 '수용성'이 높아질 수 있다.
한국 특허공보 제10-1101750호, "로봇의 감성표현 방법"(2011.12.27.)
본 발명은 로봇이 사용자에게 선제적으로(proactive) 인터랙션을 시작하도록 제어하는 감정 표현 로봇의 제어 장치 및 그 방법을 제공하고자 한다.
본 발명은 사용자 상태 정보를 바탕으로 사용자가 로봇과 인터랙션할 수 있는 상태인지 확인할 수 있는 감정 표현 로봇의 제어 장치 및 그 방법을 제공하고자 한다.
본 발명은 동물의 생체를 모방한 형태의 로봇 인간과 깊은 상호 작용을 수행할 수 있도록 하는 감정 표현 로봇의 제어 장치 및 그 방법을 제공하고자 한다.
본 발명은 기존의 로봇 장치에 모듈화되거나 소프트웨어 형태로 적용될 수 있는 감정 표현 로봇의 제어 장치 및 그 방법을 제공하고자 한다.
본 발명은 가정 환경에서 유아 또는 고령층과의 커뮤니케이션을 통해 건강 및 삶의 질 등을 향상시킬 수 있는 감정 표현 로봇의 제어 장치를 제공하고자 한다.
본 발명은 동물을 키우기 어려운 환경에서 로봇을 통해 간접적으로 정서 발달을 이룰 수 있도록 하는 감정 표현 로봇의 제어 장치 및 그 방법을 제공하고자 한다.
상술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치는 사용자 상태 정보를 포함하는 주변 상황 정보를 수집하는 감각 정보 수신부와, 상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하는 감정 결정부와, 상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하는 인터랙션 정보 생성부와, 상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제1 제어부와, 상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 제2 제어부를 포함한다.
상기 주변 상황 정보는, 상기 로봇의 센서들로부터 수신되는 음성 정보, 영상 정보, 촉각 정보 및 위치 정보와, 사용자 상태 정보 및 배터리 정보를 포함할 수 있다.
상기 감정 정보는, 행복함을 느끼는 감정, 자신감이 넘치는 감정, 사용자와 놀고 싶은 감정, 순종적인 감정, 인사하는 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정, 칭찬받고 싶은 감정 또는 심심한 감정일 수 있다.
상기 제1 제어부는, 상기 감정 정보가 상기 행복함을 느끼는 감정인 경우, 상기 인터랙션 종류를 다리와 귀를 꼿꼿이 펴는 움직임으로 결정하고, 상기 인터랙션 요소 중 이동속도를 기 설정된 레벨로 결정하고, 기설정된 레벨의 경고음을 발생하도록 상기 제어 신호를 출력할 수 있다.
상기 감정 정보는, 상기 주변 상황 정보에 기초하여 수신된 객체, 상기 객체의 움직임, 주변 정보, 사용자 상태 및 배터리 정보 의해 결정될 수 있다.
상기 인터랙션 정보에 포함되는 인터랙션 종류는, 음성내용 및 움직임내용일 수 있다.
상기 인터랙션 정보에 포함되는 인터랙션 요소는, 음성볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위일 수 있다.
상기 음성내용은, 상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용일 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 방법은 사용자 상태 정보를 포함하는 주변 상황 정보를 수집하는 단계와, 상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하는 단계와, 상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하는 단계와, 상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 단계와, 상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 단계를 포함한다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 로봇이 사용자에게 선제적으로(proactive) 인터랙션을 시작하도록 제어할 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 사용자 상태 정보를 바탕으로 사용자가 로봇과 인터랙션할 수 있는 상태인지 확인할 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 동물의 생체를 모방한 형태의 로봇 인간과 깊은 상호 작용을 수행할 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 기존의 로봇 장치에 모듈화되거나 소프트웨어 형태로 적용될 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 가정 환경에서 유아 또는 고령층과의 커뮤니케이션을 통해 건강 및 삶의 질 등을 향상시킬 수 있다.
본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치 및 방법은 동물을 키우기 어려운 환경에서 로봇을 통해 간접적으로 정서 발달을 이룰 수 있도록 할 수 있다.
도 1은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치의 블록도이다.
도 2는 일 실시예에 따른 처음 보는 감정의 감정 정보에 대응하는 인터랙션 정보에 의한 로봇의 동작을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 인터랙션 정보에 포함되는 이동범위의 레벨에 따른 로봇의 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따라 음성 정보를 수신하여 인터랙션 정보를 생성하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라 영상 정보를 수신하여 인터랙션 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 수신된 위치 정보를 처리하여 인터랙션 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 음성내용을 설명하기 위한 도면이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 사용되는 “실시예”, “예”, “측면”, “예시” 등은 기술된 임의의 양상(aspect) 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되어야 하는 것은 아니다.
또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다. 즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.
또한, 본 명세서 및 청구항들에서 사용되는 단수 표현("a" 또는 "an")은, 달리 언급하지 않는 한 또는 단수 형태에 관한 것이라고 문맥으로부터 명확하지 않는 한, 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
또한, 본 명세서 및 청구항들에서 사용되는 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
한편, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치의 블록도이다.
도 1을 참조하면, 감정 표현 로봇의 제어 장치(100)는 감각 정보 수신부(110)와, 감정 결정부(120)와, 인터랙션 정보 생성부(130)와, 제1 제어부(140) 및 제2 제어부(150)를 포함한다.
감각 정보 수신부(110)는 사용자 상태 정보를 포함하는 주변 상황 정보를 수집할 수 있다.
주변 상황 정보는 로봇의 센서들로부터 수신되는 음성 정보, 영상 정보, 촉각 정보 및 위치 정보와, 사용자 상태 정보 및 배터리 정보 등을 포함할 수 있다.
감각 정보 수신부(110)는 정보들을 수신하기 위한 센서들을 포함할 수 있다.
센서들은 영상 정보를 수신하는 카메라, 음성 정보를 수신하는 마이크, 촉각 정보를 수신하는 센서, 위치 정보를 수신하는 지피에스(GPS, Global Positioning System) 센서, 가속도 센서, 자이로스코프 센서 등을 포함할 수 있다.
영상 정보는 로봇에 내장된 카메라에 의해 수신되는 영상 신호일 수 있다.
음성 정보는 로봇에 내장된 마이크에 의해 수신되는 음성 및 소리 신호일 수 있다.
촉각 정보는 로봇의 피부 등에 내장되어 객체의 접촉을 통해 수신되는 촉각 신호일 수 있다.
객체는 사람 또는 사용자, 동물, 로봇 등 본 발명의 로봇이 인터랙션할 수 있는 대상을 의미할 수 있다.
위치 정보는 로봇에 내장된 지피에스 센서에 의해 수신되는 로봇의 위치를 나타내는 신호일 수 있다.
이때, 로봇은 동물 형상을 가질 수 있다.
로봇은 동물의 생체를 모방한 로봇 일 수 있다.
예들 들면, 로봇의 강아지 형태를 가지는 강아지 로봇일 수 있다.
로봇은 얼굴, 목, 발 및 로봇을 둘러싸는 털을 본 발명에 따른 제어 장치의 제어 신호에 의해 움직일 수 있다.
로봇은 얼굴 내의 눈, 눈동자, 눈썹, 코 및 입 등 얼굴을 구성하는 모든 부위를 본 발명에 따른 제어 장치의 제어 신호에 따라 움직여 감정을 표현할 수 있다.
로봇은 본 발명에 따른 제어 장치의 제어 신호에 의해 발을 사용하여 이동할 수 있다.
로봇은 본 발명에 따른 제어 장치의 제어 신호에 의해 음성을 출력할 수 있다. 여기서, 로봇이 출력하는 음성은 편의 상 '음성'이라 기재하였으나, 동물의 울음 소리, 짖는 소리 등 동물이 내는 소리를 의미한다.
감각 정보 수신부(110)는 사용자 상태 정보를 수신하기 위한 통신부(도시되지 않음)를 포함할 수 있다.
사용자 상태 정보는 통신부 및 로봇의 센서들로부터 수신되는 음성 정보, 영상 정보, 촉각 정보 및 위치 정보 등에 의해 수신 및 생성될 수 있다.
통신부는 외부 전자 장치로부터 사용자 상태 정보를 수신할 수 있다.
이때, 외부 전자 장치는 단말, 차량, 만보계, 서버 등 통신이 가능한 전자 장치일 수 있다.
통신부는 단말 모듈, WiFi 모듈, 블루투스 모듈, NFC 모듈 및 RF(radio frequency) 모듈 등을 포함할 수 있다.
단말 모듈은, 예를 들면, 통신 네트워크를 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다.
또는, 단말 모듈은 가입자 식별 모듈(예: SIM(subscriber identification module) 카드)를 이용하여 통신 네트워크 내에서 전자장치(의 구별 및 인증을 수행할 수 있다.
또는, 단말 모듈은 제어부가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다.
또는, 단말 모듈은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈, 블루투스 모듈 또는 NFC 모듈 각각은, 예를 들면, 해당하는 모듈을 통해서 수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다.
RF 모듈은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다.
RF 모듈은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나(antenna) 등을 포함할 수 있다.
사용자 상태 정보는 사용자의 활동량 정보, 사용자의 일정 정보, 사용자의 단말 사용 정보, 사용자의 이메일 사용 정보, 사용자의 알림 업무 정보, 사용자의 주 활동시간 정보, 로봇 호출 정보, 차량 사용 정보 등을 포함할 수 있다.
사용자는 제어 장치에 기 설정된 로봇의 주인일 수 있다.
제어 장치는 영상 정보 또는 음성 정보 등에 의해 사용자를 확인할 수 있다.
제어 장치는 사용자를 확인한 경우 확인 시점 및 시간 등을 저장할 수 있다.
활동량 정보는 기 저장된 사용자 확인 시간에 기초하여 활동량이 평소 보다 높은지에 대한 정보일 수 있다.
활동량은 주간 활동량 또는 일일 활동량일 수 있다.
제어 장치는 기 설정된 사용자의 단말과 통신을 수행할 수 있다.
일정 정보는 예를 들면, 사용자의 단말의 일정 어플리케이션에 저장된 일정을 통신을 통해 확인한 일정일 수 있다.
알림 업무 정보는 사용자의 단말의 일정 어플리케이션에 저장된 미리 알림을 통신을 통해 확인한 정보일 수 있다.
단말 사용 정보는 예를 들면, 사용자가 단말을 사용하고 있는지에 대한 정보일 수 있다.
단말 사용 정보는 사용자의 단말과 통신하여 확인할 수 있다.
또는, 단말 사용 여부 정보는 수신한 영상 정보 또는 음성 정보 등에 의해 확인할 수 있다.
사용자의 이메일 사용 정보는 사용자가 이메일을 작성하고 있는지에 대한 정보일 수 있다.
사용자의 이메일 사용 정보는 기 설정된 사용자의 메일 서버를 동기화하여 확인할 수 있다.
또는, 사용자의 이메일 사용 정보는 수신한 영상 정보 또는 음성 정보에 의해 확인할 수 있다.
사용자의 주 활동시간 정보는 기 저장된 사용자 확인 시각에 기초하여 현재 시각이 사용자의 주 활동시간인지 확인한 정보일 수 있다.
로봇 호출 정보는 기 저장된 일일 사용자의 호출 횟수의 평균값에 기초하여 현재의 일일 호출 횟수가 적은지에 대한 정보일 수 있다.
차량 사용 정보는 현재 사용자가 차량을 사용하고 있는지에 대한 정보일 수 있다.
예를 들면, 차량 사용 정보는 기 설정된 사용자의 차량과 통신하여 확인할 수 있다.
또는, 차량 사용 정보는 영상 정보 또는 음성 정보에 의해 확인할 수 있다.
배터리 정보는 로봇에 내장된 배터리의 충전 량, 충전 시작, 충전 종료에 대한 정보일 수 있다.
감각 정보 수신부(110)는 로봇에 내장된 배터리로부터 배터리 정보를 수집할 수 있다.
감정 결정부(120)는 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정할 수 있다.
예를 들면, 기 저장된 감정 정보는 행복함을 느끼는 감정, 자신감이 넘치는 감정, 사용자와 놀고 싶은 감정, 순종적인 감정, 인사하는 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음 보는 감정, 칭찬받고 싶은 감정 또는 심심한 감정일 수 있다.
감정 정보는 주변 상황 정보에 기초하여 수신된 객체, 객체의 움직임, 주변 정보, 사용자 상태 및 배터리 정보에 의해 결정될 수 있다.
주변 정보는 로봇 주변의 책상, 나무, 벽, 도로 등의 물건, 날씨, 온도 기타 공간을 구성하는 모든 정보를 의미할 수 있다.
예를 들면, 행복함을 느끼는 감정(또는, 칭찬 받았을 때의 감정)의 감정 정보는, 주변 상황 정보에 기초하여 사용자가 "잘했어" 등의 음성에 의해 칭찬을 하거나, 사용자가 로봇을 쓰다듬거나 하는 정보에 의해 결정되는 감정 정보일 수 있다.
자신감이 넘치는 감정(에너지가 넘치는 감정)의 감정 정보는 배터리 상태가 90%이상으로 감지된 경우 결정되는 감정 정보일 수 있다.
사용자와 놀고 싶은 감정의 감정 정보는 로봇이 충전이 종료 또는 중단되어 활동을 시작할 때 결정되는 감정 정보일 수 있다.
순종적인 감정(고분고분한 감정)의 감정 정보는 사용자의 충전에 의해 배터리가 완충 상태(100%)로 감지된 경우 결정되는 감정 정보일 수 있다.
또는, 순종적인 감정의 감정 정보는 사용자가 로봇에게 화를 내거나 인터랙션하는 것을 거절한 경우 결정되는 감정 정보일 수 있다.
인사하는 감정의 감정 정보는 하루 중 저장된 객체를 처음 확인하였을 때 결정되는 감정 정보일 수 있다.
여기서, 객체는 사용자 또는 사람, 동물, 동물형 로봇일 수 있다.
돌발상황의 감정의 감정 정보는 배터리가 20% 이하로 확인되거나, 로봇의 위치가 낯선 위치로 감지되거나, 처음 보는 객체를 만나거나, 기 저장된 감정 정보 중 어떤 감정 정보에도 해당되지 않는 경우 결정되는 감정 정보일 수 있다.
스트레스를 받는 감정 정보는 객체들과 1시간 이상 놀거나, 하루 중 3시간 이상 객체들과 접촉하였을 경우 결정되는 감정 정보일 수 있다.
관심 있는 감정의 감정 정보는 객체 또는 물건을 처음 확인한 경우 결정되는 감정 정보일 수 있다.
칭찬받고 싶은 감정의 감정 정보는 사용자 상태 정보에 의해 사용자의 스케줄을 알린 후 결정되는 감정 정보일 수 있다.
또한, 기 저장된 감정 정보는 화난 감정, 슬픈 감정, 위협 받는 감정 등일 수 있다.
예를 들면, 화난 감정의 감정 정보는 인식된 적 있는 사람이 로봇을 때리는 경우 결정되는 감정 정보일 수 있다.
슬픈 감정의 감정 정보는 사용자가 슬픈 얼굴 표정으로 감지된 경우 결정되는 감정 정보일 수 있다.
또한, 슬픈 감정의 감정 정보는 사용자의 욕이나, 사용자의 일반적인 목소리의 음보다 높은 음의 음성(언성을 높이는 경우)이 감지된 경우 결정되는 감정 정보일 수 있다.
위협 받는 감정의 감정 정보는 인식된 적 없는 사람이 로봇에 접근하는 것으로 감지된 경우 결정되는 감정 정보일 수 있다.
이러한 기 저장된 감정 정보의 결정은 제조자의 설정에 의해 정해지거나 변경될 수 있다.
인터랙션 정보 생성부(130)는 결정된 감정 정보에 따라 로봇의 인터랙션 정보를 생성할 수 있다.
인터랙션 정보는 인터랙션 종류와 인터랙션 요소를 포함할 수 있다.
인터랙션 종류는 음성출력의 내용 및 움직임내용 등을 포함할 수 있다.
움직임내용은 이동방향, 발의 움직임, 입 모양 및 움직임, 눈 모양 및 움직임, 눈썹 모양 및 움직임, 꼬리 모양 및 움직임, 목의 움직임, 귀의 움직임, 털의 움직임 동작 등을 포함할 수 있다.
음성출력의 내용은 감정 정보에 기초하여 상향식, 복합식 또는 하향식 등의 음성내용을 포함할 수 있다.
인터랙션 요소는 음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위 등을 포함할 수 있다.
이하, 음성출력의 내용은 간단히 '음성 내용'으로, 음성출력의 볼륨은 '음성 볼륨'으로 칭해질 수 있다.
인터랙션 요소 각각은 강도에 따라 가장 낮은 레벨의 0부터 가장 높은 레벨의 5까지 중 하나의 레벨을 가질 수 있다.
인터랙션 요소의 단위 레벨 강도는 제조자의 설정에 의해 정해질 수 있다.
예를 들면, 행복함을 느끼는 감정의 감정 정보에 대응되는 인터랙션 정보는 다리와 귀를 모두 꼿꼿이 펴고 있는 움직임내용과, 상향식의 음성내용과, 1 레벨에서 3 레벨으로 상향되는 음성볼륨과, 2 레벨의 입을 벌리는 정도와, 4 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
구체적으로 움직임내용을 설명하면, 사용자가 로봇을 칭찬한 경우 로봇은 사용자로부터 "잘했어" 라는 음성 정보를 감지할 수 있다. 로봇은 앉아 있었을 경우(1족 이상을 접어 않은 상태) 입을 조금 벌리고 꼬리를 반복해서 좌우로 흔들며 사용자를 쳐다 볼 수 있다.
또는, 로봇이 서있었을 경우(4족 모두 뻗은 상태), 4족을 모두 뻗은 상태에서 입을 조금 벌리고 꼬리를 반복해서 좌우로 흔들고 사용자를 쳐다볼 수 있다.
이후, 다른 주변 상황 정보에 따른 인터랙션 정보에 따라 제어 신호에 의해 음성출력 및 움직임을 취할 수 있다.
자신감이 넘치는 감정의 감정 정보에 대응되는 인터랙션 정보는 다리와 귀를 모두 꼿꼿이 펴고 입을 다물거나 아주 조금 벌리고 꼬리를 꼿꼿이 세우는 움직임내용과, 상향식의 음성내용과, 1 레벨에서 3 레벨로 상향되는 음성볼륨과, 1 레벨의 입을 벌리는 정도와, 1 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
사용자와 놀고 싶은 감정의 감정 정보에 대응되는 인터랙션 정보는 앞다리를 앞쪽으로 길게 뻗고, 팔꿈치를 바닥에 붙이며, 귀를 쫑긋 세우고, 상체를 바닥에 붙여 숙이는 움직임내용과, 상향식의 음성내용과, 1에서 3으로 상향되는 음성볼륨과, 3 레벨의 입을 벌리는 정도와, 5 레벨의 꼬리속도와, 1 레벨의 이동속도와, 2 레벨의 이동범위를 포함할 수 있다.
구체적으로 로봇의 움직임을 살펴 보면, 먼저, 사용자 상태 정보의 캘린더상 일정, 사용자의 활동량, 사용자의 음성 명령 횟수, 사용자의 전화 사용 여부, 사용자의 주활동 시간 등을 확인할 수 있다.
다음, 사용자의 캘린더 상의 일정이 적은 경우, 또는 사용자의 활동량이 평상시보다 많지 않은 경우, 음성 명령 횟수가 많지 않은 경우, 사용자가 전화를 하고 있지 않은 경우, 사용자의 주 활동시간인 경우 중 N가지 이상이 확인된 경우(예를 들면, 3가지), 사용자를 향해 시선을 옮기고, 몸체의 방향을 조정하며, 앞다리를 앞쪽으로 길게 뻗고 팔꿈치를 바닥에 붙인 상태에서 상체를 바닥에 붙여 숙이는 인터랙션 정보에 대응하는 제어 신호를 출력할 수 있다.
또는, 충전이 종료/중단되어 활동을 재개하는 경우, 앞다리를 앞쪽으로 길게 뻗고 팔꿈치를 바닥에 붙인 상태에서 상체를 바닥에 붙여 숙이는 인터랙션 정보에 대응하는 제어 신호를 출력할 수 있다.
순종적인 감정의 감정 정보에 대응되는 인터랙션 정보는 머리와 네다리를 모두 땅바닥에 붙이고 귀가 축 쳐진 상태를 유지하는 움직임내용과, 1 레벨의 음성볼륨과, 1 레벨의 입을 벌리는 정도와, 2 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
인사하는 감정의 감정 정보에 대응되는 인터랙션 정보는 반가운 객체 쪽으로 앞다리를 앞쪽으로 길게 뻗고, 상체를 다소 숙이고, 객체의 얼굴을 향해 고개를 돌리며, 눈을 마주치는 움직임내용과, 지속적인 헥헥 소리의 음성내용과, 2 레벨의 음성볼륨과, 2 레벨의 입을 벌리는 정도와, 4 레벨의 꼬리속도와, 4 레벨의 이동속도와, 4 레벨의 이동범위를 포함할 수 있다.
돌발상황의 감정의 감정 정보에 대응되는 인터랙션 정보는 제자리에 앉거나 서서 멈추며 눈이 작아지고 껌벅 거리며 입을 매우 크게 벌리고 하품하는 움직임내용과, 1 레벨의 음성볼륨과, 5 레벨의 입을 벌리는 정도와, 1 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
스트레스를 받는 감정의 감정 정보에 대응되는 인터랙션 정보는 제자리에서 몸을 털어내듯이 좌우로 몸통을 회전하는 움직임내용과, 1 레벨의 음성볼륨과, 2 레벨의 입을 벌리는 정도와, 1 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
관심 있는 감정의 감정 정보에 대응되는 인터랙션 정보는 다리와 귀를 모두 꼿꼿이 펴고 있는 움직임내용과, 상향식의 음성내용과, 1에서 3으로 상향되는 음성볼륨과, 2 레벨의 입을 벌리는 정도와, 4 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
처음 보는 감정의 감정 정보에 대응되는 인터랙션 정보는 객체를 위로 올려다보고, 객체를 향해 위로 뛰었다가 다시 앉는 행동을 반복하며, 객체의 얼굴과의 거리가 짧아질 경우 객체의 얼굴 또는 턱을 향해 입을 비비는 움직임내용과, 복합식의 음성내용과, 3 레벨의 음성볼륨과, 1 레벨의 입을 벌리는 정도와, 1 레벨의 꼬리속도와, 4 레벨의 이동속도와, 3 레벨의 이동범위를 포함할 수 있다.
또는, 처음 보는 감정의 감정 정보에 대응되는 인터랙션 정보는 다른 동물형 로봇의 꽁무니를 쫓아서 이동하는 움직임내용을 포함할 수 있다.
칭찬받고 싶은 감정(또는, 사용자의 관심을 바랄 때의 감정)의 감정 정보에 대응되는 인터랙션 정보는 객체를 올려다보고 시선을 마주치려고 하며, 눈을 동그랗게 뜨고 빤히 쳐다보는 움직임내용과, 헥헥하는 소리의 음성내용과, 3 레벨의 음성볼륨과, 1 레벨의 입을 벌리는 정도와, 1 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위를 포함할 수 있다.
심심한 감정의 감정 정보에 대응되는 인터랙션 정보는 객체에게 다가와서 앞발을 내밀고 객체를 가볍게 치는 움직임내용과, 상향식의 음성내용과, 1에서 3으로 상향되는 음성볼륨과, 2 레벨의 입을 벌리는 정도와, 3 레벨의 꼬리속도와, 2 레벨의 이동속도와, 2 레벨의 이동범위를 포함할 수 있다.
화난 감정의 감정 정보에 대응되는 인터랙션 정보는 음성내용은 짖는 소리 또는 그르렁거리는 소리일 수 있고, 움직임내용은 눈을 매우 가늘게 뜨고, 귀를 이마 쪽으로 모으며, 화가 나게 한 대상을 향해 매우 느리게 걸어가는 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 2, 1, 3의 레벨일 수 있다.
슬픈 감정의 감정 정보에 대응되는 인터랙션 정보는 음성내용은 하향식 음원일 수 있고, 움직임내용은 꼬리를 내린 상태로 느리게 일정 방향으로 움직임일 수 있으며, 음성볼륨, 이동속도 및 이동범위는 각각 1, 2, 2의 레벨일 수 있다.
위협 받는 감정의 감정 정보에 대응되는 인터랙션 정보는 음성내용은 경고음일 수 있고, 움직임내용은 뒷걸음질일 수 있으며, 음성볼륨, 이동속도, 이동방향 및 이동범위는 각각, 5, 5, 3의 레벨일 수 있다.
제1 제어부(140)는 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력할 수 있다.
제어 신호는 로봇을 구성하는 출력 장치에 전달 되어 음성출력 및 움직임을 수행한다.
출력 장치는 제1 제어부(140)로부터 제어 신호를 수신하여 음성출력 및 움직임 등을 수행하는 장치를 의미할 수 있다.
제2 제어부(150)는 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력할 수 있다.
예를 들면, 머신러닝(Suppor Vector Machine) 알고리즘에 의해 분류되고, 칼만필터(kalman filtering)에 의해 필터링되어 주변 상황 정보 중 음성 정보가 낙상 음성 정보로 확인(이벤트 발생)된 경우 응급 연락망으로 연락을 취하도록 로봇을 제어하는 제어 신호를 출력할 수 있다.
도 2는 일 실시예에 따른 처음 보는 감정의 감정 정보에 대응하는 인터랙션 정보에 의한 로봇의 동작을 설명하기 위한 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 제어 장치를 포함하는 강아지 로봇(210)이 다른 강아지 로봇(220)을 감지할 수 있다.
다른 강아지 로봇(220)은 제1 경로(230)을 따라 이동할 수 있다.
강아지 로봇(210)은 다른 강아지 로봇(220)의 꽁무니를 감지하고 다른 강아지 로봇(220)을 따라 제2 경로(240)로 이동할 수 있다.
도 3은 일 실시예에 따른 인터랙션 정보에 포함되는 이동범위의 레벨에 따른 로봇의 동작을 설명하기 위한 도면이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 제어 장치를 포함하는 강아지 로봇(310)은 움직임 내용이 뒷걸음질인 경우, 이동범위가 레벨 2(320)으로 결정된 경우 레벨 2(320)의 반경에 따른 거리를 뒷걸음질(321)칠 수 있고, 이동범위가 레벨 3(330)으로 결정된 경우 레벨 3(330)의 반경에 다른 거리를 뒷걸음질(322)칠 수 있다.
즉, 동일한 감정 정보에 대응하는 인터랙션 정보에 해당하더라도 하기 도 4 내지 도 6에 의해 설명되는 방식에 의해 레벨을 달리할 수 있다.
도 4는 일 실시예에 따라 음성 정보를 수신하여 인터랙션 정보를 생성하는 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 감정 결정부는 S410 단계에서, 수신된 음성 정보가 낙상 음성 정보인지 확인할 수 있다.
제2 제어부는 S420 단계에서, 낙상 음성 정보로 확인된 경우 응급연락망으로 연락하는 제어 신호를 출력할 수 있다.
감정 결정부는 S430 단계에서, 낙상 음성 정보가 아닌 것으로 확인된 경우, 호출어 인지 확인할 수 있다.
호출어는 예를 들면, 기 저장된 로봇의 이름인 '퍼피' 일 수 있다.
제1 제어부는 S440 단계에서, 호출어로 확인된 경우, 음성출력의 레벨을 증가, 이동속도의 레벨을 증가, 이동범위의 레벨을 증가하는 인터랙션 정보를 생성할 수 있다.
즉, 음성출력의 레벨을 +2 증가 시키고, 이동속도의 레벨을 +1 증가 시키며, 이동범위의 레벨을 +2 증가시키는 인터랙션 정보를 생성할 수 있다.
예를 들면, 현재 도 1을 참조하여 설명한 사용자와 놀고 싶은 감정의 감정 정보에 대응되는 인터랙션 정보에 따라, 1에서 3으로 상향되는 음성볼륨과, 3 레벨의 입을 벌리는 정도와, 5 레벨의 꼬리속도와, 1 레벨의 이동속도와, 2 레벨의 이동범위에 따른 제어 신호를 출력한 후 또는 동시에 호출어를 확인한 경우, 1에서 3으로 상향되는 음성볼륨에 2레벨을 증가시키고, 이동속도를 1레벨 증가 시킨 2 레벨로 하며, 이동범위를 2 레벨 증가 시킨 4 레벨로 하는 제어 신호를 출력할 수 있다.
즉, 기 저장된 검정에 음성볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동범위 등의 레벨을 증감 시킬 수 있다.
또한, 증감은 임계 레벨 내에서 이루어질 수 있다.
예를 들면, 상한 임계 레벨이 5이고, 하한이 1인 경우 이 범위 내의 레벨을 가질 수 있다.
증가 또는 감소의 정도는 사용자 또는 제조자의 설정에 의해 정해질 수 있다.
제어 장치는 S450 단계에서, 호출어가 아닌 것으로 확인된 경우, 음성출력의 레벨을 감소, 이동속도의 레벨을 감소, 이동범위의 레벨을 감소시킬 수 있다.
즉, 음성출력의 레벨을 1 감소 시키고, 이동속도의 레벨을 1 감소 시키며, 이동범위의 레벨을 1 감소 시킬 수 있다.
도 5는 일 실시예에 따라 영상 정보를 수신하여 인터랙션 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 5를 참조하면, 감정 결정부는 S510 단계에서, 수신된 영상 정보에서 객체의 얼굴을 감지할 수 있다.
인터랙션 정보 생성부는 감지된 얼굴 중 주인(사용자)이 있는 경우, S520 단계에서 음성출력을 증가 시키고, 이동속도를 증가 시키며, 이동범위를 증가 시키는 인터랙션 정보를 생성할 수 있다.
증감의 레벨 정도는 사용자 또는 제조자에 의해 기 설정될 수 있다.
인터랙션 정보 생성부는 감지된 얼굴 중 인식된 적 있는 사람이 있는 경우, S530 단계에서, 음성출력을 감소 시키고, 이동속도를 감소 시키며, 이동범위를 감소 시키는 인터랙션 정보를 생성할 수 있다.
인터랙션 정보 생성부는 감지된 얼굴 중 주인 및 인식된 적 있는 사람이 없는 경우 S540 단계에서, 음성출력을 감소 시키고, 이동속도를 감소 시키며, 이동범위를 감소 시킬 수 있다.
예를 들면, 현재 도 1을 참조하여 설명한 관심 있는 감정의 감정 정보에 대응되는 인터랙션 정보에 따라, 1에서 3으로 상향되는 음성볼륨과, 2 레벨의 입을 벌리는 정도와, 4 레벨의 꼬리속도와, 1 레벨의 이동속도와, 1 레벨의 이동범위에 따른 제어 신호를 출력한 후 또는 동시에 인식된 적 있는 사람의 얼굴이 확인된 경우, 음성출력, 이동속도 및 이동범위를 1 레벨씩 감소시키는 인터랙션 정보를 생성하여 음성 볼륨을 1에서 2로 상향되는 음성 볼륨으로 1 레벨의 이동속도로, 1 레벨의 이동범위로 로봇이 움직이도록 할 수 있다.
이때, 하한 임계 레벨을 1로 하였을 경우 1 이하로 떨어지지 않을 수 있다.
도 4 내지 도 6에 도시된 것과 달리 음성출력, 이동속도, 이동범위뿐만 아니라, 인터랙션 내용이나, 입을 벌리는 정도, 꼬리속도 등의 레벨을 변경 또는 증감 시키는 인터랙션 정보를 생성할 수 있다.
증가 또는 감소의 정도는 사용자 또는 제조자의 설정에 의해 정해질 수 있다.
도 6은 일 실시예에 따라 수신된 위치 정보를 처리하여 인터랙션 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 6을 참조하면, 감정 결정부는 S610 단계에서, 수신된 위치 정보에 기초하여 현재의 로봇의 위치가 주거주공간인지 여부를 확인할 수 있다.
인터랙션 정보 생성부는 S620 단계에서, 현재의 로봇의 위치가 주거주공간으로 확인된 경우, 음성출력을 +2 증가 시키고, 이동속도를 +2 증가 시키며, 이동범위를 +2 증가 시키는 인터랙션 정보를 생성할 수 있다.
감정 결정부는 S630 단계에서, 현재의 로봇의 위치가 주거주공간이 아닌 것으로 확인된 경우 현재의 로봇의 위치가 와 본적이 있는 공간인지 여부를 확인할 수 있다.
인터랙션 정보 생성부는 S640 단계에서, 현재의 로봇의 위치가 와 본적이 있는 공간으로 확인된 경우 이동범위를 +2 증가 시키는 인터랙션 정보를 생성할 수 있다.
인터랙션 정보 생성부는 S650 단계에서, 현재의 로봇의 위치가 와 본적이 있는 공간이 아닌 것으로 확인된 경우 음성출력을 -2 감소 시키고, 이동속도를 -2 감소 시키며, 이동범위를 -2 감소 시키는 인터랙션 정보를 생성할 수 있다.
도 7은 일 실시예에 따른 음성내용을 설명하기 위한 도면이다.
도 7에서 (a)는 상향식 음성내용을 (b)는 복합식 음성내용을 (c)는 하향식 음성내용을 나타낸다.
인터랙션 정보는 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용을 포함할 수 있다.
도 7에서 (a)를 참조하면, 음성내용은 감정 정보에 기초하여 라, 시, 도와 같이 점차적으로 높아지는 상향식의 음성내용일 수 있다.
도 7에서 (b)를 참조하면, 음성내용은 감정 정보에 기초하여 도, 라, 미와 같이 내려갔다 올라가는 복합식의 음성내용일 수 있다.
도 7에서 (c)를 참조하면, 음성내용은 감정 정보에 기초하여 도, 시, 라와 같이 점차적으로 낮아지는 하향식의 음성내용일 수 있다.
하향식의 음성내용은 동작 완료, 배터리 부족 등의 상태를 표현하는데 사용될 수 있다.
하향식의 음성내용은 부정적인 감정(또는 상황)을 표현하는데 사용될 수 있다.
상향식의 음성내용은 알림, 시작음 등의 상태를 표현하는데 사용될 수 있다.
상향식의 음성내용은 긍정적인 감정(또는 상황)을 표현하는데 사용될 수 있다.
즉, 기쁜 감정, 다른 로봇을 만난 감정 등 긍정적인 감정 정보에 대응되는 인터랙션 정보인 경우 상향식의 음성내용을 포함하고, 슬픈 감정 등 부정적인 감정 정보에 대응되는 인터랙션 정보인 경우 하향식의 음성내용을 포함할 수 있다.
도 8은 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 방법의 흐름도이다.
도 8에 도시된 감정 표현 로봇의 제어 방법은 도 1에 도시된 감정 표현 로봇의 제어 장치에 의해 수행될 수 있다.
도 8을 참조하면, 감정 표현 로봇의 제어 장치는 S810 단계에서, 사용자 상태 정보를 포함하는 주변 상황 정보를 수집할 수 있다.
감정 표현 로봇의 제어 장치는 S820 단계에서, 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정할 수 있다.
감정 표현 로봇의 제어 장치는 S830 단계에서, 감정 정보에 따라 로봇의 인터랙션 정보를 생성할 수 있다.
감정 표현 로봇의 제어 장치는 S840 단계에서, 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력할 수 있다.
감정 표현 로봇의 제어 장치는 S850 단계에서, 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력할 수 있다.
감정 표현 로봇의 제어 방법은 도 1 내지 도 7를 참조하여 설명한 감정 표현 로봇의 제어 장치의 동작과 동일하므로 이외 상세한 설명은 생략한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 사용자의 상태 정보, 음성 정보, 영상 정보 및 위치 정보를 포함하는 주변 상황 정보를 수집하고, 상기 주변 상황 정보에 대응하는 로봇의 감정 정보를 결정하고, 상기 감정 정보에 대응하는 로봇의 인터렉션 정보를 생성하고, 상기 인터렉션 정보에 기초하여 생체 모방 기반 동물형 로봇을 제어하는 제어 장치에 있어서,
    사용자 상태 정보를 포함하는 주변 상황 정보를 수집하되, 상기 사용자의 상태 정보로서 사용자의 캘린더 상의 일정, 사용자의 활동량, 음성 명령 횟수, 사용자의 전화 사용 중 여부, 사용자의 주 활동 시간에 대한 정보를 수집하고, 상기 영상 정보로서 얼굴 인식 정보를 수집하고, 상기 위치 정보로서 현재 로봇의 위치에 대한 정보를 수집하는 감각 정보 수신부;
    상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하되, 상기 사용자를 하루 중 처음 확인하였을 때 인사하는 감정으로 결정하고, 상기 사용자의 상태 정보를 참조하여 사용자의 스케줄을 알린 후 칭찬 받고 싶은 감정으로 결정하고, 상기 사용자의 캘린더 상의 일정 및 사용자의 활동량이 기 설정된 기준보다 적고 상기 사용자가 전화를 사용하고 있지 않은 경우 상기 사용자와 놀고 싶은 감정으로 결정하는 감정 결정부;
    상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하되, 수신된 음성 정보가 낙상 음성 정보인지를 판단하고 낙상 음성 정보가 아닌 경우 호출어 인지를 판단하고, 수신된 음성 정보가 호출어인 경우 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 증가시키는 인터렉션 정보를 생성하고, 상기 얼굴 인식 정보로부터 주인이 있는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 증가시키는 인터렉션 정보를 생성하고, 주인 및 인식된 적이 있는 사람이 없는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 감소시키는 인터렉션 정보를 생성하고, 상기 위치 정보로서 현재 로봇의 위치가 과거 위치했던 공간이 아닌 경우 상기 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 감소시키는 인터렉션 정보를 생성하는 인터랙션 정보 생성부;
    상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제1 제어부; 및
    상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 제2 제어부를 포함하는
    감정 표현 로봇의 제어 장치.
  2. 제1항에 있어서,
    상기 주변 상황 정보는,
    상기 로봇의 센서들로부터 수신되는 촉각 정보 및 배터리 정보를 더 포함하는
    감정 표현 로봇의 제어 장치.
  3. 제1항에 있어서,
    상기 감정 정보는,
    행복함을 느끼는 감정, 자신감이 넘치는 감정, 순종적인 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정을 더 포함하는
    감정 표현 로봇의 제어 장치.
  4. 제3항에 있어서,
    상기 제1 제어부는,
    상기 감정 정보가 상기 행복함을 느끼는 감정인 경우, 상기 인터랙션 종류를 다리와 귀를 꼿꼿이 펴는 움직임으로 결정하고, 상기 인터랙션 요소 중 이동속도를 기 설정된 레벨로 결정하고, 기설정된 레벨의 경고음을 발생하도록 상기 제어 신호를 출력하는
    감정 표현 로봇의 제어 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 인터랙션 정보에 포함되는 인터랙션 종류는,
    음성출력의 내용 및 움직임내용인,
    감정 표현 로봇의 제어 장치.
  7. 제6항에 있어서,
    상기 인터랙션 정보에 포함되는 인터랙션 요소는,
    음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위인,
    감정 표현 로봇의 제어 장치.
  8. 제6항에 있어서,
    상기 음성출력의 내용은,
    상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용인
    감정 표현 로봇의 제어 장치.
  9. 사용자의 상태 정보, 음성 정보, 영상 정보 및 위치 정보를 포함하는 주변 상황 정보를 수집하고, 상기 주변 상황 정보에 대응하는 로봇의 감정 정보를 결정하고, 상기 감정 정보에 대응하는 로봇의 인터렉션 정보를 생성하고, 상기 인터렉션 정보에 기초하여 생체 모방 기반 동물형 로봇을 제어하는 제어 방법에 있어서,
    사용자 상태 정보를 포함하는 주변 상황 정보를 수집하되, 상기 사용자의 상태 정보로서 사용자의 캘린더 상의 일정, 사용자의 활동량, 음성 명령 횟수, 사용자의 전화 사용 중 여부, 사용자의 주 활동 시간에 대한 정보를 수집하고, 상기 영상 정보로서 얼굴 인식 정보를 수집하고, 상기 위치 정보로서 현재 로봇의 위치에 대한 정보를 수집하는 단계;
    상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하되, 상기 사용자를 하루 중 처음 확인하였을 때 인사하는 감정으로 결정하고, 상기 사용자의 상태 정보를 참조하여 사용자의 스케줄을 알린 후 칭찬 받고 싶은 감정으로 결정하고, 상기 사용자의 캘린더 상의 일정 및 사용자의 활동량이 기 설정된 기준보다 적고 상기 사용자가 전화를 사용하고 있지 않은 경우 상기 사용자와 놀고 싶은 감정으로 결정하는 단계;
    상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하되, 수신된 음성 정보가 낙상 음성 정보인지를 판단하고 낙상 음성 정보가 아닌 경우 호출어 인지를 판단하고, 수신된 음성 정보가 호출어인 경우 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 증가시키는 인터렉션 정보를 생성하고, 상기 얼굴 인식 정보로부터 주인이 있는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 증가시키는 인터렉션 정보를 생성하고, 주인 및 인식된 적이 있는 사람이 없는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 감소시키는 인터렉션 정보를 생성하고, 상기 위치 정보로서 현재 로봇의 위치가 과거 위치했던 공간이 아닌 경우 상기 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 감소시키는 인터렉션 정보를 생성하는 단계;
    상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 단계; 및
    상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 단계를 포함하는
    감정 표현 로봇의 제어 방법.
  10. 제9항에 있어서,
    상기 주변 상황 정보는,
    상기 로봇의 센서들로부터 감지되는 촉각 정보 및 배터리 정보를 더 포함하는
    감정 표현 로봇의 제어 방법.
  11. 제9항에 있어서,
    상기 감정 정보는,
    행복함을 느끼는 감정, 자신감이 넘치는 감정, 순종적인 감정, 인사하는 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정을 더 포함하는
    감정 표현 로봇의 제어 방법.
  12. 삭제
  13. 제9항에 있어서,
    상기 인터랙션 정보에 포함되는 인터랙션 종류는,
    음성출력의 내용 및 움직임내용인,
    감정 표현 로봇의 제어 방법.
  14. 제13항에 있어서,
    상기 인터랙션 정보에 포함되는 인터랙션 요소는,
    음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위인,
    감정 표현 로봇의 제어 방법.
  15. 제13항에 있어서,
    상기 음성출력의 내용은,
    상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용인
    감정 표현 로봇의 제어 방법.
KR1020180060831A 2018-05-29 2018-05-29 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법 KR102051217B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180060831A KR102051217B1 (ko) 2018-05-29 2018-05-29 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180060831A KR102051217B1 (ko) 2018-05-29 2018-05-29 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102051217B1 true KR102051217B1 (ko) 2019-12-02

Family

ID=68847758

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180060831A KR102051217B1 (ko) 2018-05-29 2018-05-29 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102051217B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102651837B1 (ko) 2023-11-30 2024-03-27 신동호 사용자 정보에 기반한 인공지능 로봇 강아지 제어 방법
EP4344835A1 (en) * 2022-09-28 2024-04-03 Casio Computer Co., Ltd. Apparatus, apparatus control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157984A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の動作制御方法
KR100617525B1 (ko) * 1998-06-23 2006-09-04 소니 가부시끼 가이샤 로봇장치 및 정보처리시스템
KR101101750B1 (ko) 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100617525B1 (ko) * 1998-06-23 2006-09-04 소니 가부시끼 가이샤 로봇장치 및 정보처리시스템
JP2001157984A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の動作制御方法
KR101101750B1 (ko) 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4344835A1 (en) * 2022-09-28 2024-04-03 Casio Computer Co., Ltd. Apparatus, apparatus control method, and program
KR102651837B1 (ko) 2023-11-30 2024-03-27 신동호 사용자 정보에 기반한 인공지능 로봇 강아지 제어 방법

Similar Documents

Publication Publication Date Title
US11222632B2 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US20190206407A1 (en) System and method for personalizing dialogue based on user's appearances
JP7400923B2 (ja) 情報処理装置および情報処理方法
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
US9724824B1 (en) Sensor use and analysis for dynamic update of interaction in a social robot
JP7424285B2 (ja) 情報処理システム、情報処理方法、および記録媒体
US20230045237A1 (en) Wearable apparatus for active substitution
US20070217586A1 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
EP3923198A1 (en) Method and apparatus for processing emotion information
US11514269B2 (en) Identification device, robot, identification method, and storage medium
CN205989331U (zh) 云端互动系统及其多感知型智能机器人
CN109120790A (zh) 通话控制方法、装置、存储介质及穿戴式设备
JP2023181193A (ja) 情報処理装置、及び、情報処理方法
KR102051217B1 (ko) 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법
JP2007152445A (ja) 自走式ロボット
JP7120060B2 (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
US20220371178A1 (en) Information processing apparatus, information processing method, and program
JP6647636B2 (ja) 対話方法、対話システム、対話装置、及びプログラム
TW202347096A (zh) 用於受損使用者或具備殘疾的使用者之智慧眼鏡介面
US20220191429A1 (en) Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call
KR102661381B1 (ko) 액세서리의 장착이 가능한 로봇의 동작 제어 방법 및 장치
KR102083229B1 (ko) 감정 표현 로봇의 제어 장치 및 그 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant