KR102300873B1 - 피지컬 실체화 가능한 사이버 로봇 - Google Patents

피지컬 실체화 가능한 사이버 로봇 Download PDF

Info

Publication number
KR102300873B1
KR102300873B1 KR1020200005545A KR20200005545A KR102300873B1 KR 102300873 B1 KR102300873 B1 KR 102300873B1 KR 1020200005545 A KR1020200005545 A KR 1020200005545A KR 20200005545 A KR20200005545 A KR 20200005545A KR 102300873 B1 KR102300873 B1 KR 102300873B1
Authority
KR
South Korea
Prior art keywords
user
robot
processing unit
cyber
materialized
Prior art date
Application number
KR1020200005545A
Other languages
English (en)
Other versions
KR20210092051A (ko
Inventor
윤영섭
김병수
미야오 젤리
오재원
이재영
김태균
박지운
벨리즈 케빈
Original Assignee
주식회사 와이닷츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이닷츠 filed Critical 주식회사 와이닷츠
Priority to KR1020200005545A priority Critical patent/KR102300873B1/ko
Publication of KR20210092051A publication Critical patent/KR20210092051A/ko
Application granted granted Critical
Publication of KR102300873B1 publication Critical patent/KR102300873B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 피지컬 실체화 가능한 사이버 로봇 기술에 관한 것으로, 사이버 로봇은 실체화 디바이스를 결정하고 상기 실체화 디바이스의 타입을 검출하는 실체화 디바이스 연결부, 상기 실체화 디바이스의 타입을 기초로 수신 가능한 외부 환경을 결정하는 외부 환경 처리부, 상기 실체화 디바이스의 타입을 기초로 수신 가능한 사용자 인터랙션을 결정하는 사용자 인터랙션 처리부, 상기 외부 환경 및 상기 사용자 인터랙션을 기초로 생애주기 기반의 사용자 반응 모델을 갱신하는 사용자 반응 모델 처리부 및 상기 실체화 디바이스의 타입을 기초로 제공 가능한 사용자 반응 컨텐츠를 결정하는 사용자 반응 컨텐츠 처리부를 포함한다.

Description

피지컬 실체화 가능한 사이버 로봇{PHYSICAL SUBSTANTIVE CYBER ROBOT}
본 발명은 피지컬 실체화 가능한 사이버 로봇 기술에 관한 것으로, 더욱 상세하게는 외부 환경에 따라 다양한 디바이스들로 구현되어 사용자와의 인터랙션에 따라 반응하는 피지컬 실체화 가능한 사이버 로봇에 관한 것이다.
컴퓨터에 의해 제어되는 로봇이 등장한 이래, 단순한 작업만 할 수 있었던 초기의 산업용 로봇에서부터 사람과 감정을 교류하고 걸어 다니는 최근의 로봇에 이르기까지, 로봇의 기술은 컴퓨터의 발달과 함께 고도화되어 왔다. 따라서, 인간(사람)과 같이 지능적으로 행동하는 다양한 로봇이 개발되고 있기에 로봇과 사람이 대면하는 기회는 많아질 것으로 예상되고 있다.
이와 함께, 일상생활에서 사람과 함께 생활할 수 있는 로봇에 대한 관심 역시 높아지고 있다. 최근 이러한 추세에 맞게, 다양한 감정이나 행동을 표현하는 애완용 로봇이 개발되었고, 환자를 보살피기 위한 기능의 의료용 로봇이 개발되고 있다.
하지만, 기존의 애완용 로봇은, 특정한 타겟 없이 보편적인 모든 사람을 대상으로 하는 로봇 기술이기 때문에, 동물을 모사하거나 사람의 감정을 흉내내는 정도로 매우 단순한 수준이므로, 실제로 사람이 로봇이 아닌 사람과 교감하는 듯한 느낌을 받을 수 없다. 또한, 기존의 애완용 로봇은 물리적으로 동작하는 실제 로봇과 서버 상에서 동작하는 가상 로봇 간의 공유를 효과적으로 제공하기 어렵다는 문제점을 가지고 있다.
한국공개특허 제10-2012-0061688(2012.06.13)호는 노인 복지 지원 로봇 및 그의 제어방법에 관한 것으로, 저출산과 의료의 발달로 인해 고령화 사회가 되어가는 사회 상황에서 노인 복지를 지원할 수 있는 로봇을 제공할 수 있는 기술을 개시하고 있다.
한국공개특허 제10-2012-0061688(2012.06.13)호
본 발명의 일 실시예는 외부 환경에 따라 다양한 디바이스들로 구현되어 사용자와의 인터랙션에 따라 반응하는 피지컬 실체화 가능한 사이버 로봇을 제공하고자 한다.
본 발명의 일 실시예는 로봇의 생애주기와 사용자 인터랙션 그리고 외부 환경을 기초로 동적으로 갱신되는 사용자 반응 모델을 이용하여 사용자와 인터랙션을 수행할 수 있는 피지컬 실체화 가능한 사이버 로봇을 제공하고자 한다.
본 발명의 일 실시예는 사용자 반응 모델을 기초로 동작하는 가상 로봇을 다양한 디바이스들에 적응적으로 실체화 함으로써 다양한 상황에서 사용자에게 가상 로봇과의 인터랙션을 효과적으로 제공할 수 있는 피지컬 실체화 가능한 사이버 로봇을 제공하고자 한다.
실시예들 중에서, 피지컬 실체화 가능한 사이버 로봇은 실체화 디바이스를 결정하고 상기 실체화 디바이스의 타입을 검출하는 실체화 디바이스 연결부, 상기 실체화 디바이스의 타입을 기초로 수신 가능한 외부 환경을 결정하는 외부 환경 처리부, 상기 실체화 디바이스의 타입을 기초로 수신 가능한 사용자 인터랙션을 결정하는 사용자 인터랙션 처리부, 상기 외부 환경 및 상기 사용자 인터랙션을 기초로 생애주기 기반의 사용자 반응 모델을 갱신하는 사용자 반응 모델 처리부 및 상기 실체화 디바이스의 타입을 기초로 제공 가능한 사용자 반응 컨텐츠를 결정하는 사용자 반응 컨텐츠 처리부를 포함한다.
상기 실체화 디바이스 연결부는 상기 사용자 인터랙션을 수신할 수 있는 피지컬 동작 가능한 피지컬 로봇, 사용자 바디에 착용가능한 웨어러블, 가상현실(VR, Virtual Reality) 디스플레이를 제공하는 VR 기기, 터치 디스플레이를 통해 입출력 수신 가능한 태블릿, 스마트폰 또는 컴퓨터를 상기 실체화 디바이스로 연결할 수 있다.
상기 외부 환경 처리부는 상기 실체화 디바이스의 타입이 검출되면 상기 실체화 디바이스에 있는 적어도 하나의 센서를 스캐닝 하여 향기, 온도, 습도, 조도 및 가속도 중 적어도 하나를 상기 외부 환경으로서 결정할 수 있다.
상기 사용자 인터랙션 처리부는 상기 실체화 디바이스의 타입이 검출되면 상기 실체화 디바이스에 있는 입력 모듈을 스캐닝 하여 향기 입력, 터치 입력, 가속도 입력 및 음성 입력 중 적어도 하나를 상기 사용자 인터랙션으로서 결정할 수 있다.
상기 사용자 반응 컨텐츠 처리부는 상기 실체화 디바이스의 타입이 검출되면 상기 실체화 디바이스에 있는 출력 모듈을 스캐닝 하여 음성 출력 또는 디스플레이 출력 중 적어도 하나를 상기 사용자 반응 컨텐츠로서 결정할 수 있다.
상기 사용자 반응 모델 처리부는 상기 실체화 디바이스가 연결되면 상기 실체화 디바이스의 타입에 따라 상기 사용자 반응 모델에 입력되는 입력내용 또는 상기 사용자 반응 모델에서 출력되는 출력내용을 적응시킬 수 있다.
상기 사용자 반응 모델 처리부는 상기 입력내용에 따라 해당 생애주기에 성취될 미션을 결정하고 상기 사용자 인터랙션을 통해 상기 미션의 수행 또는 반복된 실패 여부를 결정하여 상기 사용자 반응 모델을 구성하는 생애주기를 성장 또는 퇴행시킬 수 있다.
상기 사용자 반응 모델 처리부는 상기 생애주기가 퇴행되는 경우에는 상기 사용자와 연관된 사용자 단말에 상기 사용자 반응 모델을 제공하여, 상기 사용자가 상기 사용자 단말을 통해 상기 사용자 반응 모델을 다룰 수 있게 할 수 있다.
상기 사용자 반응 컨텐츠 처리부는 상기 출력내용에 따라 상기 사용자 반응 컨텐츠를 결정하고 상기 사용자 반응 모델에 있는 생애주기와 친밀도를 기초로 대화내용, 어휘, 어투 및 동작 중 적어도 하나를 결정할 수 있다.
상기 사용자 반응 컨텐츠 처리부는 상기 사용자 반응 컨텐츠가 사용자 예상 피드백을 요구하는 경우에는 상기 실체화 디바이스가 상기 사용자 예상 피드백을 검출하도록 할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 피지컬 실체화 가능한 사이버 로봇은 로봇의 생애주기와 사용자 인터랙션 그리고 외부 환경을 기초로 동적으로 갱신되는 사용자 반응 모델을 이용하여 사용자와 인터랙션을 수행할 수 있다.
본 발명의 일 실시예에 따른 피지컬 실체화 가능한 사이버 로봇은 사용자 반응 모델을 기초로 동작하는 가상 로봇을 다양한 디바이스들에 적응적으로 실체화 함으로써 다양한 상황에서 사용자에게 가상 로봇과의 인터랙션을 효과적으로 제공할 수 있다.
도 1은 본 발명에 따른 피지컬 실체화 가능한 사이버 로봇 시스템을 설명하는 도면이다.
도 2는 도 1의 사이버 로봇의 물리적 구성을 설명하는 블록도이다.
도 3은 도 1의 사이버 로봇의 기능적 구성을 설명하는 블록도이다.
도 4는 도 1의 사이버 로봇에서 수행되는 피지컬 실체화 과정을 설명하는 순서도이다.
도 5는 본 발명에 따른 사이버 로봇이 실체화되는 실체화 디바이스들의 예를 설명하는 도면이다.
도 6은 본 발명에 따른 생애주기 모델을 설명하는 도면이다.
도 7은 본 발명에 따른 사용자 반응 모델을 설명하는 도면이다.
도 8은 본 발명에 따른 사용자 반응 모델의 일 실시예를 설명하는 예시도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명에 따른 피지컬 실체화 가능한 사이버 로봇 시스템을 설명하는 도면이다.
도 1을 참조하면, 사이버 로봇 시스템(100)은 실체화 디바이스(110), 사이버 로봇(130), 데이터베이스(150) 및 사용자 단말(170)을 포함할 수 있다.
실체화 디바이스(110)는 사용자와의 인터랙션을 통해 성장하고 생애주기 별로 구분되는 인터랙션 컨텐츠를 제공할 수 있는 가상 로봇이 실체화되는 컴퓨팅 장치에 해당할 수 있다. 실체화 디바이스(110)는 다양한 장치들로 구현될 수 있고, 예를 들어, 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 실체화 디바이스(110)는 사이버 로봇(130)과 네트워크를 통해 연결될 수 있고, 복수의 실체화 디바이스(110)들은 사이버 로봇(130)과 동시에 연결될 수 있다.
실체화 디바이스(110)는 구현 형태에 따라 다양한 센서들을 포함할 수 있고, 예를 들어, 감정이나 동작을 위한 디스플레이를 포함하며, 터치 패널, 마이크, 스피커, 통신 모듈 등을 포함하여 구현될 수 있다. 또한, 실체화 디바이스(110)는 후각 센서를 더 포함하여 구현될 수 있다.
한편, 인터랙션 컨텐츠는 사용자의 인터랙션에 따른 가상 로봇의 반응으로서 가상 로봇의 동작, 음성 및 영상 재생 등을 포함할 수 있다. 가상 로봇의 동작은 실체화되는 실체화 디바이스(110)의 타입에 따라 다양한 형태로 구현될 수 있다.
예를 들어, 가상 로봇의 물리적인 동작은 실체화 디바이스(110)의 물리적 동작으로 표출되거나 또는 기능적 동작으로 표출될 수 있다. 실체화 디바이스(110)가 가상 로봇의 팔에 대응되는 물리적인 구성요소를 포함하고 있는 경우 가상 로봇의 팔을 흔드는 동작은 실체화 디바이스(110)의 해당 구성요소의 동작으로 표출될 수 있다.
만약 실체화 디바이스(110)가 디스플레이 패널을 통해 로봇의 영상을 제공하는 경우라면 해당 동작은 디스플레이 패널을 통한 가상 로봇의 팔을 흔드는 영상의 재생으로 대체되어 표출될 수 있다.
또한, 실체화 디바이스(110)가 후각 센서를 포함하는 경우 가상 로봇의 향기 인식 동작에 따라 디스플레이 패널을 통해 인식된 향기 정보가 표출될 수 있다.
사이버 로봇(130)은 사용자와 인터랙션을 수행하는 가상 로봇의 정보를 저장하고 관리하는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 사이버 로봇(130)은 실체화 디바이스(110) 및 사용자 단말(170)과 블루투스, WiFi, 통신망 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 실체화 디바이스(110) 및 사용자 단말(170)과 데이터를 주고 받을 수 있다.
일 실시예에서, 사이버 로봇(130)은 데이터베이스(150)와 연동하여 가상 로봇에 관한 정보를 저장할 수 있다. 한편, 사이버 로봇(130)은 도 1과 달리, 데이터베이스(150)를 내부에 포함하여 구현될 수 있다. 또한, 사이버 로봇(130)은 프로세서, 메모리, 사용자 입출력부 및 네트워크 입출력부를 포함하여 구현될 수 있으며, 이에 대해서는 도 2에서 보다 자세히 설명한다.
데이터베이스(150)는 가상 로봇을 다양한 실체화 디바이스(110)에 실체화하는 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 데이터베이스(150)는 가상 로봇에 관한 정보를 저장할 수 있고, 가상 로봇에 의해 사용자에게 제공되는 인터랙션 컨텐츠에 관한 정보를 저장할 수 있으며, 반드시 이에 한정되지 않고, 사이버 로봇(130)이 가상 로봇을 실체화하고 인터랙션 컨텐츠를 제공하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
사용자 단말(170)은 가상 로봇에 관한 정보를 확인할 수 있는 컴퓨팅 장치에 해당할 수 있고, 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 사용자 단말(170)은 사이버 로봇(130)과 네트워크를 통해 연결될 수 있고, 복수의 사용자 단말(170)들은 사이버 로봇(130)과 동시에 연결될 수 있다.
일 실시예에서, 사용자 단말(170)은 사이버 로봇(130)으로부터 생애주기 별로 교육 프로그램을 수신하여 가상 로봇에 관한 교육을 수행할 수 있다. 사용자 단말(170)을 통해 수행된 교육 내용은 사이버 로봇(130)으로 전송되어 가상 로봇에 적용될 수 있다. 즉, 가상 로봇은 사이버 로봇(130)의 제어를 통해 성장과 피지컬 실체화를 수행할 수 있다.
도 2는 도 1의 로봇 서버의 물리적 구성을 설명하는 블록도이다.
도 2를 참조하면, 사이버 로봇(130)은 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함하여 구현될 수 있다.
프로세서(210)는 사이버 로봇(130)이 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 사이버 로봇(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 사이버 로봇(130)의 CPU(Central Processing Unit)로 구현될 수 있다.
메모리(230)는 SSD(Solid State Drive) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 사이버 로봇(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.
사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 사이버 로봇(130)은 서버로서 수행될 수 있다.
네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.
도 3은 도 1의 로봇 서버의 기능적 구성을 설명하는 블록도이다.
도 3을 참조하면, 사이버 로봇(130)은 실체화 디바이스 연결부(310), 외부 환경 처리부(320), 사용자 인터랙션 처리부(330), 사용자 반응 모델 처리부(340), 사용자 반응 컨텐츠 처리부(350) 및 제어부(360)를 포함할 수 있다.
실체화 디바이스 연결부(310)는 실체화 디바이스(110)를 결정하고 실체화 디바이스(110)의 타입을 검출할 수 있다. 사이버 로봇(130)은 실체화 디바이스(110)와 네트워크를 통해 연결될 수 있고, 실체화 디바이스(110)는 사이버 로봇(130)으로부터 가상 로봇에 관한 정보를 수신하여 실체화할 수 있다. 실체화 디바이스 연결부(310)는 실체화 디바이스(110)로부터의 연결 요청을 수신한 경우, 실체화 디바이스(110)를 식별하여 디바이스 식별을 위한 식별코드를 부여할 수 있다.
한편, 사이버 로봇(130)은 실체화 가능한 실체화 디바이스(110)를 사전에 등록하여 실체화 동작을 수행할 수 있으며, 식별코드는 사전 등록 과정에서 부여될 수도 있다. 실체화 디바이스(110)의 타입은 실체화 디바이스(110)의 종류에 따라 결정될 수 있으며, 실체화 디바이스 연결부(310)는 실체화 디바이스(110)로부터 수집한 장치 고유 정보를 기초로 실체화 디바이스(110)의 타입을 검출할 수 있다. 예를 들어, 실체화 디바이스 연결부(310)는 실체화 디바이스(110)의 연결 요청을 수신한 경우 해당 요청에 포함된 디바이스 정보를 추출하여 실체화 디바이스(110)의 타입을 검출할 수 있다.
일 실시예에서, 실체화 디바이스 연결부(310)는 사용자 인터랙션을 수신할 수 있는 피지컬 동작 가능한 피지컬 로봇, 사용자 바디에 착용가능한 웨어러블, 가상현실(VR, Virtual Reality) 디스플레이를 제공하는 VR 기기, 터치 디스플레이를 통해 입출력 수신 가능한 태블릿, 스마트폰 또는 컴퓨터를 실체화 디바이스(110)로 연결할 수 있다. 가상 로봇의 동작을 제어하고 처리하는 연산을 사이버 로봇(130)에 의해 이루어지지만 가상 로봇을 사용자에게 표출하고 실체화하는 것은 실체화 디바이스(110)에 의해 이루어질 수 있다.
만약 실체화 디바이스(110)가 피지컬 로봇에 해당하는 경우 가상 로봇의 실체적인 동작은 피지컬 로봇에 의해 물리적으로 구현되어 실체화될 수 있다. 즉, 실체화 디바이스 연결부(310)는 실체화 디바이스(110)로서 피지컬 로봇을 연결할 수 있고, 사이버 로봇(130)은 피지컬 로봇의 동작을 제어함으로써 실체화된 가상 로봇을 사용자에게 제공할 수 있다.
또한, 피지컬 로봇의 물리적 구성에 따라 가상 로봇의 실체적인 동작이 결정될 수 있다. 예를 들어, 피지컬 로봇이 후각 센서를 포함하여 구현된 경우 가상 로봇을 통한 실체화 가능한 동작에는 후각 센서를 이용한 향기 인식 동작이 포함될 수 있다. 따라서, 가상 로봇이 향기 인식 동작을 수행하는 경우 사이버 로봇(130)은 피지컬 로봇의 동작을 제어하여 향기 인식에 대응되는 물리적 동작을 실체화할 수 있고 이와 함께 향기 인식 결과로서 향기 정보를 디스플레이 패널을 통해 표출할 수 있다.
또한, 웨어러블(Wearable)은 사용자의 신체에 부착 또는 설치되어 동작하는 디바이스에 해당할 수 있고, 다양한 형태로 구현될 수 있다. 예를 들어, 웨어러블은 시계, 안경, 신발 등으로 구현될 수 있고, 사용자와의 인터랙션을 수행할 수 있는 다양한 센서와 통신 모듈을 포함하여 구현될 수 있다.
또한, VR 기기는 사용자에게 가상 현실을 제공하는 디바이스에 해당할 수 있고, 예를 들어, 사용자의 머리에 장착되는 헤드 마운트 디스플레이(HMD) 등으로 구현될 수 있다. 실체화 디바이스 연결부(310)는 다양한 실체화 디바이스(110)들로부터 연결 요청을 수신할 수 있고, 각 실체화 디바이스(110)와의 연결에 성공하면 해당 실체화 디바이스(110)의 타입을 검출하여 디바이스 별로 관리할 수 있다.
만약 실체화 디바이스(110)와의 연결이 종료된 경우 해당 디바이스에 관한 타입 정보는 삭제될 수 있다. 실체화 디바이스 연결부(310)는 실체화 디바이스(110)와의 연결에 따른 연결 정보를 생성하여 관리할 수 있고, 연결 정보에는 디바이스에 관한 식별 정보, 타입 정보, 연결 시점 정보 등이 포함될 수 있다.
외부 환경 처리부(320)는 실체화 디바이스(110)의 타입을 기초로 수신 가능한 외부 환경을 결정할 수 있다. 실체화 디바이스(110)는 디바이스 타입에 따라 내부에 포함하고 있는 센서 또는 모듈의 종류가 상이할 수 있다. 따라서, 외부 환경 처리부(320)는 실체화 디바이스 연결부(310)에 의해 실체화 디바이스(110)의 타입이 검출되면 해당 실체화 디바이스(110)의 정보를 기초로 해당 실체화 디바이스(110)로부터 수신할 수 있는 외부 환경에 관한 정보를 결정할 수 있다.
외부 환경은 실체화 디바이스(110)의 동작과 연관된 정보를 포함하거나 또는 사용자의 동작이나 상태에 관한 정보를 포함할 수 있다. 예를 들어, 실체화 디바이스(110)가 웨어러블로서 사용자의 손목에 부착되는 스마트 시계인 경우 가속도, 조도 센서, 마이크, 스피커 및 터치 디스플레이를 포함하여 구현될 수 있고, 외부 환경 처리부(320)는 가속도, 조도, 음향 및 터치에 관한 정보를 외부 환경으로 결정할 수 있다. 즉, 외부 환경은 실체화 디바이스(110)로부터 수집할 수 있는 사용자 또는 외부에 관한 정보를 포함할 수 있고, 디바이스 타입에 상관없이 공통적으로 포함하는 공통 정보와 디바이스 타입에 따라 고유하게 수집 가능한 고유 정보를 각각 포함할 수 있다.
일 실시예에서, 외부 환경 처리부(320)는 실체화 디바이스(110)의 타입이 검출되면 실체화 디바이스(110)에 있는 적어도 하나의 센서를 스캐닝 하여 향기, 온도, 습도, 조도 및 가속도 중 적어도 하나를 외부 환경으로서 결정할 수 있다. 실체화 디바이스(110)에 관한 스캐닝 동작은 해당 실체화 디바이스(110)에 대해 특정 정보를 요청하고 해당 요청에 관한 응답을 수신함으로써 수행될 수 있다. 즉, 외부 환경 처리부(320)는 실체화 디바이스(110)의 타입이 검출되면 해당 타입에 관한 스캐닝 정보를 기초로 실체화 디바이스(110)에 일련의 정보를 요청함으로써 스캐닝 동작을 처리할 수 있고, 각 요청에 대한 응답에 따라 스캐닝 결과로서 외부 환경을 결정할 수 있다. 예를 들어, 외부 환경 처리부(320)는 센서들에 관한 정보 요청을 기초로 실체화 디바이스(110)에 관한 스캐닝 동작을 수행할 수 있다.
사용자 인터랙션 처리부(330)는 실체화 디바이스(110)의 타입을 기초로 수신 가능한 사용자 인터랙션을 결정할 수 있다. 예를 들어, 실체화 디바이스(110)가 터치 모듈을 포함하는 경우 사용자에 의한 터치 입력을 사용자 인터랙션으로 결정할 수 있다. 또한, 실체화 디바이스(110)가 카메라를 포함하는 경우 사용자 영상을 기초로 얼굴, 홍채 및 동작 입력을 사용자 인터랙션을 결정할 수 있다. 또한, 실체화 디바이스(110)가 후각 센서를 포함하는 경우 사용자에 의한 향기 입력을 사용자 인터랙션으로 결정할 수 있다. 사용자 인터랙션 처리부(330)는 디바이스의 타입 별로 기 구축된 사용자 인터랙션 유형 정보를 이용하여 사용자 인터랙션에 관한 결정 동작을 처리할 수 있다.
일 실시예에서, 사용자 인터랙션 처리부(330)는 실체화 디바이스(110)의 타입이 검출되면 실체화 디바이스(110)에 있는 입력 모듈을 스캐닝 하여 향기 입력, 터치 입력, 가속도 입력 및 음성 입력 중 적어도 하나를 사용자 인터랙션으로서 결정할 수 있다. 입력 모듈은 실체화 디바이스(110)에 포함되어 사용자 인터랙션에 관한 정보를 획득하는 동작을 수행할 수 있다. 입력 모듈은 실체화 디바이스(110)의 타입에 따라 다양한 정보를 획득할 수 있으나, 기본적으로 사용자의 향기 입력에 관한 향기 정보, 사용자의 터치 입력에 관한 터치 정보, 사용자의 움직임에 관한 가속도 정보, 사용자의 대화에 관한 음성 정보를 사용자 인터랙션으로 획득할 수 있다.
한편, 입력 모듈에 관한 스캐닝 동작은 각 정보에 관한 일련의 요청과 그에 대한 응답의 수신 과정을 통해 수행될 수 있다. 사용자 인터랙션 처리부(330)는 실체화 디바이스(110)에게 각 입력 모듈에 의해 획득 가능한 정보를 요청하고 해당 요청에 관한 응답 여부를 기초로 스캐닝 결과를 획득할 수 있다. 사용자 인터랙션 처리부(330)는 실체화 디바이스(110)로부터 사용자 인터랙션에 관한 정보를 수신하여 처리함으로써 사이버 로봇(130)의 동작을 지원할 수 있다.
사용자 반응 모델 처리부(340)는 외부 환경 및 사용자 인터랙션을 기초로 생애주기 기반의 사용자 반응 모델을 갱신할 수 있다. 여기에서, 사용자 반응 모델은 가상 로봇의 행동 기준을 제공하는 학습 모델에 해당할 수 있고, 사용자와 가상 로봇 간의 인터랙션 과정에서 수집된 정보를 기초로 학습을 통해 구축될 수 있다. 한편, 사용자 반응 모델은 사용자 단말(170)로부터 원격으로 수신되는 교육 내용을 기초로 갱신될 수 있고, 이 경우 교육 프로그램을 통해 사용자 단말(170)에서 수행된 결과가 사이버 로봇(130)에게 전달될 수 있다.
또한, 사용자 반응 모델은 기본적으로 가상 로봇의 생애주기를 하나의 특징 정보로서 포함하여 구현될 수 있으나, 필요에 따라 생애주기 별로 독립적인 모델로서 구축될 수도 있다. 이 때, 가상 로봇의 생애주기는 가상 로봇이 제공하는 인터랙션 컨텐츠(또는 사용자 반응 컨텐츠)에 영향을 줄 수 있으며, 인간의 성장 주기에 대응되어 정의될 수 있다. 가상 로봇의 생애주기에 대해서는 도 6에서 보다 자세히 설명한다.
한편, 사용자 반응 모델 처리부(340)는 외부 환경 및 사용자 인터랙션을 기초로 생애주기 기반의 사용자 반응 모델을 갱신할 수 있으며, 보다 구체적으로, 사용자 반응 모델 처리부(340)는 특정 시점과 연관되어 수집된 사용자 인터랙션 및 외부 환경을 기초로 사이버 로봇(130)에 의해 관리되는 가상 로봇의 현재 생애주기에 따른 사용자 반응 모델을 갱신할 수 있다.
일 실시예에서, 사용자 반응 모델 처리부(340)는 실체화 디바이스(110)가 연결되면 실체화 디바이스(110)의 타입에 따라 사용자 반응 모델에 입력되는 입력내용 또는 사용자 반응 모델에서 출력되는 출력내용을 적응시킬 수 있다. 이를 위하여 사용자 반응 모델 처리부(340)는 각 실체화 디바이스(110) 별로 사용 가능한 정보 유형에 관한 테이블을 구축할 수 있다.
즉, 사용자 반응 모델 처리부(340)는 실체화 디바이스(110)로부터 수집된 정보를 사용자 반응 모델에 입력 가능한 형태로 변환하고, 사용자 반응 모델로부터 출력된 정보를 실체화 디바이스(110)에서 사용 가능한 형태로 변환하는 동작을 수행할 수 있다.
일 실시예에서, 사용자 반응 모델 처리부(340)는 입력내용에 따라 해당 생애주기에 성취될 미션을 결정하고 사용자 인터랙션을 통해 미션의 수행 또는 반복된 실패 여부를 결정하여 사용자 반응 모델을 구성하는 생애주기를 성장 또는 퇴행시킬 수 있다. 즉, 사용자 반응 모델 처리부(340)는 미션 결정, 미션 수행 및 결과 적용 순으로 동작할 수 있다.
보다 구체적으로, 사용자 반응 모델 처리부(340)는 실체화 디바이스(110)를 통해 입력 가능한 사용자 인터랙션에 관한 미션을 결정할 수 있다. 예를 들어, 사용자 반응 모델 처리부(340)는 특정 사용자 인터랙션의 반복이나 일련의 사용자 인터랙션의 입력 등을 미션으로 결정할 수 있다. 또한, 사용자 반응 모델 처리부(340)는 미션의 내용에 대응되는 사용자 인터랙션이 수신되는지를 기초로 미션 수행 여부를 결정할 수 있고, 미션 수행 결과에 따라 사용자 반응 모델의 성장 또는 퇴행을 처리할 수 있다.
즉, 사용자 반응 모델 처리부(340)는 미션의 수행에 성공할 때마다 생애주기를 성장시킬 수 있고, 미션의 수행에 실패할 때마다 생애주기를 퇴행시킬 수 있다. 결과적으로, 생애주기 기반의 사용자 반응 모델은 사용자와의 인터랙션에 따라 단계적으로 성장 또는 쇠퇴(또는 퇴행)의 과정을 거칠 수 있다.
한편, 사용자 반응 모델 처리부(340)는 미션의 수행 또는 실패가 연속하여 발생하는 경우 성장 또는 퇴행의 속도를 증가시킬 수 있다. 이 때, 생애주기의 성장 또는 퇴행은 수치로서 정의될 수 있고, 성장 또는 퇴행에 따라 특정 점수에 도달하는 경우 생애주기의 변경이 발생할 수 있다. 예를 들어, 생애주기의 성장에 따라 100점에 도달하는 경우 생애주기가 다음 단계로 변경될 수 있고, 생애주기의 퇴행에 따라 0점에 도달하는 경우 생애주기가 이전 단계로 변경될 수 있다.
일 실시예에서, 사용자 반응 모델 처리부(340)는 생애주기가 퇴행되는 경우에는 사용자와 연관된 사용자 단말(170)에 사용자 반응 모델을 제공하여, 사용자가 사용자 단말(170)을 통해 사용자 반응 모델을 다룰 수 있게 할 수 있다. 이 때, 사용자 반응 모델 처리부(340)는 사용자 반응 모델과 함께 사용자 반응 모델의 교육을 위한 교육 프로그램을 제공할 수 있다.
보다 구체적으로, 사용자 반응 모델 처리부(340)는 현재 단계에서 생애주기가 퇴행하여 특정 임계 점수 이하로 떨어지는 경우 사용자 단말(170)에게 사용자 반응 모델을 제공하여 사용자에 의한 사용자 반응 모델의 성장을 간접적으로 유도할 수 있다. 사용자 반응 모델 처리부(340)는 생애주기의 퇴행이 계속하여 발생함으로써 점수 하락의 범위가 특정 기준 이상으로 증가하는 경우에도 사용자 단말(170)에게 사용자 반응 모델을 제공할 수 있다.
일 실시예에서, 사용자 반응 모델 처리부(340)는 사용자 인터랙션을 통해 사용자 반응 모델을 구성하는 친밀도를 가감시킬 수 있다. 사용자 반응 모델은 복수의 특징들 각각을 독립된 차원에 대응시켜 형성되는 다차원 모델에 해당할 수 있고, 특정 차원에 대응되는 특징 중 하나로서 친밀도를 포함할 수 있다. 사용자 반응 모델 처리부(340)는 사용자 인터랙션 결과를 반영하여 친밀도를 가감시킬 수 있다.
예를 들어, 사용자 반응 모델 처리부(340)는 사용자의 인터랙션이 가상 로봇에 대한 부정적 반응으로 분류되는 경우 친밀도를 감소시킬 수 있고, 긍정적 반응으로 분류되는 경우 친밀도를 증가시킬 수 있다. 또한, 사용자 반응 모델 처리부(340)는 부정적 또는 긍정적 반응이 연속되는 경우 연속된 횟수에 따른 가중치를 부여하여 친밀도를 각각 감소 또는 증가시킬 수 있다.
사용자 반응 컨텐츠 처리부(350)는 실체화 디바이스(110)의 타입을 기초로 제공 가능한 사용자 반응 컨텐츠를 결정할 수 있다. 사용자 반응 컨텐츠 처리부(350)는 사용자 인터랙션에 반응하여 사용자 반응 모델에 따른 사용자 반응 컨텐츠를 제공할 수 있다. 다만 실체화 디바이스(110)의 타입에 따라 영상 제공이 불가능하거나 또는 음성 재생이 불가능할 수 있으며, 이 경우 사용자 반응 컨텐츠 처리부(350)는 사용자에게 표출될 수 있는 컨텐츠만을 선별하여 사용자 반응 컨텐츠으로 결정할 수 있다.
일 실시예에서, 사용자 반응 컨텐츠 처리부(350)는 실체화 디바이스(110)의 타입이 검출되면 실체화 디바이스(110)에 있는 출력 모듈을 스캐닝 하여 음성 출력 또는 디스플레이 출력 중 적어도 하나를 사용자 반응 컨텐츠로서 결정할 수 있다. 또한, 사용자 반응 컨텐츠 처리부(350)는 스캐닝 결과에 따라 진동 출력을 사용자 반응 컨텐츠로서 결정할 수 있다. 한편, 사용자 반응 컨텐츠는 음성, 영상, 진동 뿐만 아니라 실체화 디바이스(110)의 타입에 따라 다양한 형태의 출력을 포함할 수 있다.
일 실시예에서, 사용자 반응 컨텐츠 처리부(350)는 출력내용에 따라 사용자 반응 컨텐츠를 결정하고 사용자 반응 모델에 있는 생애주기와 친밀도를 기초로 대화내용, 어휘, 어투 및 동작 중 적어도 하나를 결정할 수 있다. 즉, 사용자 반응 컨텐츠 처리부(350)는 사용자 반응 컨텐츠로서 텍스트를 출력하거나 텍스트에 대응하는 음성 및 동작을 출력할 수 있다. 이때, 사용자 반응 컨텐츠 처리부(350)는 텍스트로서 대화내용을 결정할 수 있고, 텍스트에 대응되는 음성을 형성하는 어휘 및 어투를 각각 결정할 수 있으며, 텍스트에 대응되는 동작을 결정할 수 있다. 대화내용은 복수의 문장들의 집합에서 선택될 수 있고, 각 집합은 어휘 및 어투에 따라 독립적으로 구성될 수 있다. 어휘, 어투 및 동작은 어휘 집합, 어투 집합 및 동작 집합에서 각각 결정될 수 있다.
일 실시예에서, 사용자 반응 컨텐츠 처리부(350)는 사용자 반응 컨텐츠가 사용자 예상 피드백을 요구하는 경우에는 실체화 디바이스(110)가 사용자 예상 피드백을 검출하도록 할 수 있다. 예를 들어, 사용자 반응 컨텐츠가 사용자의 특정 행위를 요구하는 요청에 해당하는 경우 사용자 예상 피드백은 특정 행위와 관련하여 미리 결정된 사용자의 동작들 중 어느 하나에 해당할 수 있고, 사용자 반응 컨텐츠 처리부(350)는 실체화 디바이스(110)를 통해 해당 사용자의 동작에 관한 검출 결과를 수신할 수 있다. 즉, 사용자 반응 컨텐츠 처리부(350)는 실체화 디바이스(110)와의 연동을 통해 사용자 예상 피드백의 검출을 처리할 수 있다.
제어부(360)는 사이버 로봇(130)의 전체적인 동작을 제어하고, 실체화 디바이스 연결부(310), 외부 환경 처리부(320), 사용자 인터랙션 처리부(330), 사용자 반응 모델 처리부(340) 및 사용자 반응 컨텐츠 처리부(350) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 4는 도 1의 사이버 로봇에서 수행되는 피지컬 실체화 과정을 설명하는 순서도이다.
도 4를 참조하면, 사이버 로봇(130)은 실체화 디바이스 연결부(310)를 통해 실체화 디바이스(110)를 결정하고 실체화 디바이스(110)의 타입을 검출할 수 있다(단계 S410). 사이버 로봇(130)은 외부 환경 처리부(320)를 통해 실체화 디바이스(110)의 타입을 기초로 수신 가능한 외부 환경을 결정할 수 있다(단계 S430).
또한, 사이버 로봇(130)은 사용자 인터랙션 처리부(330)를 통해 실체화 디바이스(110)의 타입을 기초로 수신 가능한 사용자 인터랙션을 결정할 수 있다(단계 S450). 사이버 로봇(130)은 사용자 반응 모델 처리부(340)를 통해 외부 환경 및 사용자 인터랙션을 기초로 생애주기 기반의 사용자 반응 모델을 갱신할 수 있다(단계 S470). 사이버 로봇(130)은 사용자 반응 컨텐츠 처리부(350)를 통해 실체화 디바이스(110)의 타입을 기초로 제공 가능한 사용자 반응 컨텐츠를 결정할 수 있다(단계 S490).
도 5는 본 발명에 따른 사이버 로봇이 실체화되는 실체화 디바이스들의 예를 설명하는 도면이다.
도 5를 참조하면, 사이버 로봇(130)은 기 구축되고 사용자와의 인터랙션에 따라 갱신되는 사용자 반응 모델(131)을 통해 사용자에게 제공되는 사용자 반응 컨텐츠를 생성할 수 있다. 또한, 사이버 로봇(130)은 다양한 형태로 구현된 실체화 디바이스(110)를 통해 사용자 반응 컨텐츠를 사용자에게 표출함으로써 사용자와 가상 로봇 간의 인터랙션을 제공할 수 있다.
도 5의 경우, 실체화 디바이스(110)는 피지컬 로봇(111), 웨어러블(113), 스마트폰(115) 및 VR 기기(117)를 포함할 수 있고, 가상 로봇을 제어하는 사이버 로봇(130)은 사용자 반응 모델(131)에 의해 결정된 사용자 반응 컨텐츠를 각 실체화 디바이스(110)들에게 제공할 수 있다.
이 때, 사이버 로봇(130)은 사이버 로봇(130)과 실체화 디바이스(110)가 연결된 경우 사용자 반응 모델 처리부(340)를 통해 실체화 디바이스(110)의 타입을 기초로 사용자 반응 모델(131)에 입력되는 입력내용 또는 사용자 반응 모델(131)에서 출력되는 출력내용을 적응시킬 수 있다. 입력내용 또는 출력내용에 관한 적응 과정은 사용자 반응 모델을 위한 데이터와 실체화 디바이스(110)를 위한 데이터 간의 변환 과정에 해당할 수 있다.
보다 구체적으로, 실체화 디바이스(110)는 다양한 형태로 구현될 수 있고, 구현 형태에 따라 사용되는 데이터 구조가 상이할 수 있다. 사용자 반응 모델은 하나의 데이터 형태에 맞춰 구현될 수 있고, 각 데이터 형태로 변환하는 적응 과정을 통해 다양한 실체화 디바이스(110)들에 효과적으로 적용될 수 있다.
도 6은 본 발명에 따른 생애주기 모델을 설명하는 도면이다.
도 6을 참조하면, 사이버 로봇(130)은 사용자 반응 모델 처리부(340)를 통해 외부 환경 및 사용자 인터랙션을 기초로 생애주기 기반의 사용자 반응 모델을 갱신할 수 있고, 사용자 반응 컨텐츠 처리부(350)를 통해 사용자 인터랙션에 반응하여 사용자 반응 모델에 따른 사용자 반응 컨텐츠를 제공할 수 있다.
도 6에서, 사이버 로봇(130)은 실체화 디바이스(110)를 통해 표출되고 생애주기 별로 형성된 프로그램에 따라 동작하는 가상 로봇과 사용자 간의 인터랙션을 처리할 수 있다. 일 실시예에서, 사이버 로봇(130)은 현재의 생애주기 단계가 특징 정보로서 반영된 사용자 반응 모델을 통해 사용자 인터랙션을 생성할 수 있고, 실체화 디바이스(110)를 통해 사용자에게 제공할 수 있다. 즉, 사용자 반응 모델은 로봇의 현재 생애주기가 특징 정보로서 하나의 차원에 대응하여 형성될 수 있다.
한편, 사이버 로봇(130)에 의해 관리되는 가상 로봇의 생애주기는 신생아기(4주 이내), 영·유아기(0 ~ 6세), 학령기(7 ~ 18세), 청·장년기(19 ~ 64세) 및 노년기(66세 이상)에 대응하는 단계들로 정의될 수 있다. 생애주기는 각 단계에서의 특징이 사이버 로봇(130)에 의해 결정되는 사용자 반응 컨텐츠에 영향을 줄 수 있다. 즉, 사이버 로봇(130)은 사용자 반응 모델에 따라 사용자 반응 컨텐츠를 결정할 수 있으며, 사용자 반응 모델은 로봇의 현재 생애주기를 하나의 특징 정보로서 포함하여 구축될 수 있다. 따라서, 사이버 로봇(130)은 동일한 사용자 반응에도 불구하고 현재의 생애주기 단계에 따라 전혀 다른 사용자 반응 컨텐츠를 실체화 디바이스(110)를 통해 제공할 수 있다.
한편, 사이버 로봇(130)은 가상 로봇과 사용자 간의 인터랙션을 통해 성장 또는 퇴행의 과정을 진행할 수 있다. 즉, 사이버 로봇(130)은 가상 로봇이 사용자와의 인터랙션을 통해 성장을 계속하는 경우 가상 로봇의 생애주기를 다음 단계로 변경시킬 수 있다. 반대로, 사이버 로봇(130)은 가상 로봇과 사용자 간의 인터랙션이 일정 기간 발생하지 않는 경우 가상 로봇의 퇴행을 진행할 수 있고 계속된 퇴행에 따라 생애주기가 이전 단계로 변경될 수 있다. 사이버 로봇(130)은 생애주기 단계의 변경에 따라 갱신된 사용자 반응 모델을 통해 가상 로봇과 사용자 간의 인터랙션을 수행할 수 있다.
도 7은 본 발명에 따른 사용자 반응 모델을 설명하는 도면이다.
도 7을 참조하면, 사이버 로봇(130)은 사용자 반응 컨텐츠 처리부(350)를 통해 사용자 인터랙션에 반응하여 사용자 반응 모델에 따른 사용자 반응 컨텐츠를 사용자에게 제공할 수 있다. 이 때, 사용자 반응 모델은 다양한 특징 정보를 포함하여 정의될 수 있으며, 특히 각 특징 정보는 하나의 차원에 대응하는 다차원 모델로서 표현될 수 있다.
일 실시예에서, 사용자 반응 모델은 각 특징 정보를 성분으로 하는 특징 벡터에 관한 학습 모델로서 구현될 수 있다. 즉, 사용자 반응 모델은 특징 벡터를 학습하여 그에 대응되는 사용자 반응 컨텐츠를 출력으로 제공할 수 있다. 이 때, 사용자 반응 모델의 출력은 미리 정의된 복수의 사용자 반응 컨텐츠에 관한 확률 정보에 해당할 수 있다.
도 7에서, 사용자 반응 모델은 사용자 인터랙션, 외부 환경, 생애주기 및 친밀도를 특징 정보로서 차원화하여 정의될 수 있다. 사용자 인터랙션은 실체화 디바이스(110)의 타입에 따라 정의될 수 있으며, 예를 들어, 실체화 디바이스(110)가 사용자의 터치를 수신할 수 있는 터치 패널을 포함하는 경우 터치 입력을 사용자 인터랙션으로 수신할 수 있고, 사용자 반응 모델은 터치에 관한 사용자 인터랙션을 포함하여 구축될 수 있다.
또한, 실체화 디바이스(110)가 사용자와의 대화를 위한 마이크 및 스피커를 포함하는 경우 음성 입력을 사용자 인터랙션으로 수신할 수 있고, 사용자 반응 모델은 대화에 관한 사용자 인터랙션을 포함하여 구축될 수 있다. 또한, 실체화 디바이스(110)가 향기를 인식할 수 있는 후각 센서를 포함하는 경우 향기 입력을 사용자 인터랙션으로 수신할 수 있고, 사용자 반응 모델은 향기 인식에 관한 사용자 인터랙션을 포함하여 구축될 수 있다.
일 실시예에서, 사이버 로봇(130)은 외부 환경 처리부(320)를 통해 실체화 디바이스(110)의 적어도 하나의 센서로부터 온도, 습도 및 조도 중 적어도 하나를 수신할 수 있고, 외부 환경 중 온습도, 조도 및 시간을 각각 차원화하여 사용자 반응 모델을 구축할 수 있다.
한편, 사용자 반응 모델은 고유 특징 정보로서 사이버 로봇(130)에 의해 관리되는 가상 로봇의 현재 생애주기와 사용자와의 친밀도를 각각 차원화 하여 구축될 수 있다. 결과적으로, 사용자 반응 모델은 가상 로봇의 행동을 결정하는데 영향을 주는 다양한 특징 정보들을 반영하여 형성될 수 있다. 따라서, 사이버 로봇(130)은 다양한 특징 정보들에 따라 갱신되는 사용자 반응 모델을 통해 사용자 반응 컨텐츠를 결정할 수 있고, 실체화 디바이스(110)의 중계를 통해 가상 로봇과 사용자 간의 인터랙션을 수행할 수 있다.
도 8은 본 발명에 따른 사용자 반응 모델의 일 실시예를 설명하는 예시도이다.
도 8을 참조하면, 사이버 로봇(130)은 사용자 인터랙션에 반응하여 사용자 반응 모델에 따른 사용자 반응 컨텐츠를 생성하여 실체화 디바이스(110)를 통해 사용자에게 제공할 수 있고, 사용자 반응 컨텐츠는 사용자 반응 모델에 의해 결정될 수 있다.
사용자 반응 모델은 다양한 특징 정보들을 반영하여 구축될 수 있으며, 사이버 로봇(130)에 의해 관리되는 가상 로봇의 행동을 결정하는 행동 기준의 역할을 담당할 수 있다. 그림 (a) 및 (b)는 각각의 성장 환경에 따라 서로 다르게 형성된 사용자 반응 모델의 실시예를 나타내고 있다. 그림 (a)의 사용자 반응 모델은 그림 (b)보다 생애주기가 더 높기 때문에 사이버 로봇(130)이 제공하는 사용자 반응 컨텐츠도 더 높은 연령의 사용자에게 보다 적합할 수 있다.
또한, 그림 (a)의 사용자 반응 모델은 그림 (b)보다 친밀도가 더 낮기 때문에 사이버 로봇(130)이 제공하는 사용자 반응 컨텐츠는 더 부정적인 성격을 가질 수 있다. 그림 (b)의 사용자 반응 모델은 외부 환경, 즉 온습도, 조도 및 시간 항목이 그림 (a)보다 더 높은 점에서 사이버 로봇(130)은 외부 환경의 변화에 따라 더 다양한 사용자 반응 컨텐츠를 제공할 수 있다.
사이버 로봇(130)은 사용자 반응 모델에 따라 가상 로봇과 사용자 간의 인터랙션을 수행할 수 있고, 사용자 반응 모델은 로봇의 현재 생애주기 단계, 외부 환경 및 사용자 인터랙션을 기초로 갱신되어 사용자와의 효과적인 인터랙션에 기여할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 사이버 로봇 시스템
110: 실체화 디바이스
111: 피지컬 로봇 113: 웨어러블
115: 스마트폰 117: VR 기기
130: 사이버 로봇 131: 사용자 반응 모델
150: 데이터베이스 170: 사용자 단말
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 실체화 디바이스 연결부 320: 외부 환경 처리부
330: 사용자 인터랙션 처리부 340: 사용자 반응 모델 처리부
350: 사용자 반응 컨텐츠 처리부 360: 제어부

Claims (10)

  1. 실체화 디바이스를 결정하고 상기 실체화 디바이스의 타입을 검출하는 실체화 디바이스 연결부;
    상기 실체화 디바이스의 타입을 기초로 수신 가능한 외부 환경을 결정하는 외부 환경 처리부;
    상기 실체화 디바이스의 타입을 기초로 수신 가능한 사용자 인터랙션을 결정하는 사용자 인터랙션 처리부;
    상기 외부 환경 및 상기 사용자 인터랙션을 기초로 신생아기, 영·유아기, 학령기, 청·장년기 및 노년기에 대응하는 단계들을 포함하여 정의되는 생애주기 기반의 사용자 반응 모델을 갱신하는 사용자 반응 모델 처리부; 및
    상기 실체화 디바이스의 타입을 기초로 제공 가능한 사용자 반응 컨텐츠를 결정하는 사용자 반응 컨텐츠 처리부를 포함하고,
    상기 사용자 반응 모델 처리부는 입력내용에 따라 현재의 생애주기 단계에 성취될 미션을 결정하고 상기 사용자 인터랙션을 통해 상기 미션의 수행 또는 반복된 실패 여부를 결정하여 상기 사용자 반응 모델에 대응되는 생애주기 단계를 성장 또는 퇴행시키는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  2. 제1항에 있어서, 상기 실체화 디바이스 연결부는
    상기 사용자 인터랙션을 수신할 수 있는 피지컬 동작 가능한 피지컬 로봇, 사용자 바디에 착용가능한 웨어러블, 가상현실(VR, Virtual Reality) 디스플레이를 제공하는 VR 기기, 터치 디스플레이를 통해 입출력 수신 가능한 태블릿, 스마트폰 또는 컴퓨터를 상기 실체화 디바이스로 연결하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  3. 제2항에 있어서, 상기 외부 환경 처리부는
    상기 실체화 디바이스의 타입이 검출되면 상기 실체화 디바이스에 있는 적어도 하나의 센서를 스캐닝 하여 향기, 온도, 습도, 조도 및 가속도 중 적어도 하나를 상기 외부 환경으로서 결정하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  4. 제2항에 있어서, 상기 사용자 인터랙션 처리부는
    상기 실체화 디바이스의 타입이 검출되면 상기 실체화 디바이스에 있는 입력 모듈을 스캐닝 하여 향기 입력, 터치 입력, 가속도 입력 및 음성 입력 중 적어도 하나를 상기 사용자 인터랙션으로서 결정하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  5. 제2항에 있어서, 상기 사용자 반응 컨텐츠 처리부는
    상기 실체화 디바이스의 타입이 검출되면 상기 실체화 디바이스에 있는 출력 모듈을 스캐닝 하여 음성 출력 또는 디스플레이 출력 중 적어도 하나를 상기 사용자 반응 컨텐츠로서 결정하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  6. 제1항에 있어서, 상기 사용자 반응 모델 처리부는
    상기 실체화 디바이스가 연결되면 상기 실체화 디바이스의 타입에 따라 상기 사용자 반응 모델에 입력되는 입력내용 또는 상기 사용자 반응 모델에서 출력되는 출력내용을 적응시킴으로써 상기 사용자 반응 모델에 입력 가능한 형태로 변환하거나 또는 상기 실체화 디바이스에서 사용 가능한 형태로 변환하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  7. 삭제
  8. 제1항에 있어서, 상기 사용자 반응 모델 처리부는
    상기 생애주기가 퇴행되는 경우에는 상기 사용자와 연관된 사용자 단말에 상기 사용자 반응 모델을 제공하여, 상기 사용자가 상기 사용자 단말을 통해 상기 사용자 반응 모델을 다룰 수 있게 하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  9. 제6항에 있어서, 상기 사용자 반응 컨텐츠 처리부는
    상기 출력내용에 따라 상기 사용자 반응 컨텐츠를 결정하고 상기 사용자 반응 모델에 있는 생애주기와 친밀도를 기초로 대화내용, 어휘, 어투 및 동작 중 적어도 하나를 결정하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
  10. 제9항에 있어서, 상기 사용자 반응 컨텐츠 처리부는
    상기 사용자 반응 컨텐츠가 컨텐츠에 반응하는 사용자의 동작에 해당하는 사용자 예상 피드백을 요구하는 경우에는 상기 실체화 디바이스가 상기 사용자 예상 피드백을 검출하도록 하는 것을 특징으로 하는 피지컬 실체화 가능하도록 프로그램으로 구현된 사이버 로봇.
KR1020200005545A 2020-01-15 2020-01-15 피지컬 실체화 가능한 사이버 로봇 KR102300873B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200005545A KR102300873B1 (ko) 2020-01-15 2020-01-15 피지컬 실체화 가능한 사이버 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200005545A KR102300873B1 (ko) 2020-01-15 2020-01-15 피지컬 실체화 가능한 사이버 로봇

Publications (2)

Publication Number Publication Date
KR20210092051A KR20210092051A (ko) 2021-07-23
KR102300873B1 true KR102300873B1 (ko) 2021-09-13

Family

ID=77155476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200005545A KR102300873B1 (ko) 2020-01-15 2020-01-15 피지컬 실체화 가능한 사이버 로봇

Country Status (1)

Country Link
KR (1) KR102300873B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002144259A (ja) 2000-07-27 2002-05-21 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2010214009A (ja) 2009-03-18 2010-09-30 Fujitsu Ltd 仮想ペット育成装置、仮想ペット育成方法、仮想ペット育成プログラム及び携帯端末装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334066B1 (ko) * 2008-02-11 2013-11-29 이점식 진화하는 사이버 로봇 시스템 및 그 제공 방법
KR20120061688A (ko) 2010-12-03 2012-06-13 한국기술교육대학교 산학협력단 노인 복지 지원 로봇 및 그의 제어방법
KR102204919B1 (ko) * 2014-06-14 2021-01-18 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
KR20160015803A (ko) * 2014-07-31 2016-02-15 레드원테크놀러지 주식회사 사용자와 상호작용하는 가상 펫을 제공하는 방법, 모바일 단말, 서버 및 로봇
KR102497042B1 (ko) * 2018-01-29 2023-02-07 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002144259A (ja) 2000-07-27 2002-05-21 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2010214009A (ja) 2009-03-18 2010-09-30 Fujitsu Ltd 仮想ペット育成装置、仮想ペット育成方法、仮想ペット育成プログラム及び携帯端末装置

Also Published As

Publication number Publication date
KR20210092051A (ko) 2021-07-23

Similar Documents

Publication Publication Date Title
JP6816925B2 (ja) 育児ロボットのデータ処理方法及び装置
US8996429B1 (en) Methods and systems for robot personality development
JP4629560B2 (ja) 対話型情報システム
KR102599607B1 (ko) 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
CN109521927B (zh) 机器人互动方法和设备
US11314548B2 (en) Electronic device and server for processing data received from electronic device
KR102490916B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
US10836044B2 (en) Robot control device and robot control method
CN106874092A (zh) 机器人任务托管方法及系统
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
WO2017175442A1 (ja) 情報処理装置、および情報処理方法
KR102300873B1 (ko) 피지컬 실체화 가능한 사이버 로봇
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
CN112398952A (zh) 电子资源推送方法、系统、设备及存储介质
US11461404B2 (en) System and method for adjustment of a device personality profile
WO2002030629A1 (fr) Appareil robot, systeme d"affichage d"information et procede d"affichage d"information
US11817097B2 (en) Electronic apparatus and assistant service providing method thereof
KR20210019818A (ko) 양방향 교감 맞춤형 학습 컨텐츠 제공 시스템 및 방법
US20070078563A1 (en) Interactive system and method for controlling an interactive system
JP6972526B2 (ja) コンテンツ提供装置、コンテンツ提供方法、及びプログラム
KR102348308B1 (ko) 사용자 인터랙션 반응 로봇
KR20230047434A (ko) 어시스턴트 디바이스(들)의 주변 감지에 기초한 어시스턴트 액션(들) 추론하기
WO2020149031A1 (ja) 応答処理装置及び応答処理方法
JP2007000938A (ja) 行動融和型ロボット装置
TWI506458B (zh) 辨識網路產生裝置及其方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant