KR20160015803A - Robot, server, mobile terminal, and method to provide virtual pet for interacting with user - Google Patents

Robot, server, mobile terminal, and method to provide virtual pet for interacting with user Download PDF

Info

Publication number
KR20160015803A
KR20160015803A KR1020140098532A KR20140098532A KR20160015803A KR 20160015803 A KR20160015803 A KR 20160015803A KR 1020140098532 A KR1020140098532 A KR 1020140098532A KR 20140098532 A KR20140098532 A KR 20140098532A KR 20160015803 A KR20160015803 A KR 20160015803A
Authority
KR
South Korea
Prior art keywords
user
virtual pet
virtual
interaction
robot
Prior art date
Application number
KR1020140098532A
Other languages
Korean (ko)
Inventor
박경희
노상현
Original Assignee
레드원테크놀러지 주식회사
박경희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 레드원테크놀러지 주식회사, 박경희 filed Critical 레드원테크놀러지 주식회사
Priority to KR1020140098532A priority Critical patent/KR20160015803A/en
Publication of KR20160015803A publication Critical patent/KR20160015803A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Robotics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Mechanical Engineering (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Toys (AREA)

Abstract

The present invention discloses a method for providing a virtual pet to interact with a user, a mobile terminal, a server, and a robot. According to an embodiment of the present invention, the present invention can monitor the interaction of the user and the virtual pet and enable a manager to manage the virtual pet when a predetermined event occurs. Also, the present invention can provide the robot or virtual pet for the user through the mobile terminal when the user cannot access the robot.

Description

사용자와 상호작용하는 가상 펫을 제공하는 방법, 모바일 단말, 서버 및 로봇{ROBOT, SERVER, MOBILE TERMINAL, AND METHOD TO PROVIDE VIRTUAL PET FOR INTERACTING WITH USER}TECHNICAL FIELD [0001] The present invention relates to a method for providing a virtual pet interacting with a user, a mobile terminal, a server, and a robot,

아래 실시예들은 사용자와 상호작용하는 가상 펫을 제공하는 방법, 모바일 단말, 서버 및 로봇에 관한 것이다.The following embodiments are directed to a method of providing a virtual pet that interacts with a user, a mobile terminal, a server, and a robot.

본 발명의 배경이 되는 기술은 다음의 문헌에 개시되어 있다.Techniques that constitute the background of the present invention are disclosed in the following documents.

1) 한국 공개특허공보 제2013-0097988호 (2013.09.04 공개)1) Korean Laid-open Patent Publication No. 2013-0097988 (published on March 31, 2013)

2) 한국 공개특허공보 제2013-0093290호 (2013.08.22 공개)2) Korean Laid-open Patent Publication No. 2013-0093290 (published on Aug. 22, 2013)

로봇은 정해진 프로그램에 따라 일정한 동작 또는 작업을 수행하는 장치를 가리킨다. 종래의 로봇은 자동차, 반도체 등의 제조 분야를 중심으로 발달해왔다. 최근에는 정보통신, 센싱 기술, 음성 인식, 기계 매커니즘, 엔지니어링 기술 등과 같은 다양한 이종 기술과 결합된 융복합형 로봇이 개발되고 있다. 이에 따라, 사용자의 작업을 대신할 수 있는 로봇에 대한 수요가 꾸준히 증가하고 있다.A robot refers to a device that performs a certain operation or task according to a predetermined program. Conventional robots have been developed mainly in the fields of manufacturing automobiles and semiconductors. In recent years, fusion-type robots are being developed in combination with various heterogeneous technologies such as information communication, sensing technology, speech recognition, machine mechanism, and engineering technology. As a result, there is a steady increase in demand for robots that can replace user's work.

오늘날, 시각이나 청각, 촉각 센서와 같은 다양한 센서 정보를 이용하여 감정이나 행동을 생성하거나 선택하여 표현하는 시스템은 애완용 로봇이나 지능형 로봇 형태로 개발되어 있고, 의인화된 감정을 기반으로 더욱 자연스러운 행동 내지 대화를 구현하기 위해 감정 엔진이나 상호작용과 관련된 시스템에 관한 기능 개선 연구가 꾸준히 진행되고 있다.Today, systems that generate or select emotions or behaviors by using various sensor information such as vision, hearing, and tactile sensors are developed in the form of pet robots or intelligent robots. Based on their personalized emotions, There is a steady progress of functional improvement studies on emotion engines and systems related to interaction.

또한, 인간과 로봇의 자연스러운 상호작용을 위해 사용자에 의한 입력과 상태 변화를 감지하기 위한 센서 장치의 기능 개선과 함께 이러한 센서를 이용하여 사용자의 의도를 파악하기 위한 기술 개발이 시도되고 있으며, 로봇 구동 장치에 있어서도 자연스러운 행동을 표현하기 위해 구동기 기술에 대한 다양한 연구가 이루어지고 있다.In addition, in order to naturally interact with human beings and robots, it is attempted to improve the function of the sensor device for detecting the input and the state change by the user, and to develop technology for grasping the intention of the user by using such sensor, Various researches on actuator technology have been conducted to express natural behavior in the device.

다만, 종래의 로봇은 고정된 위치 내지 한정된 위치에서만 동작 가능하기 때문에 사용자가 로봇의 동작 범위를 벗어날 경우, 상호작용이 불가능하다는 단점이 있다. 특히, 실내에서 동작하는 로봇의 경우, 사용자가 실외로 이동하게 되면 사용자는 로봇과 상호작용할 수 없게 된다.However, since the conventional robot can operate only at a fixed position or a limited position, there is a disadvantage in that when the user is out of the robot's operation range, the robot can not interact with the robot. In particular, in the case of a robot operating indoors, when the user moves outdoors, the user can not interact with the robot.

실시예들은 사용자가 가상 펫을 제공하는 로봇에 접근 불가능한 경우에도 모바일 단말을 통해서 사용자와 상호작용하는 가상 펫을 제공할 수 있다.Embodiments can provide a virtual pet that interacts with a user through a mobile terminal even if the user is inaccessible to the robot providing the virtual pet.

또한, 실시예들은 상호작용으로부터 미리 정한 이벤트가 감지되는 경우 관리자에게 알려서 사용자와 관리자가 간접 대화하거나 사용자와 가상 펫이 직접 대화하게 할 수 있다.In addition, the embodiments may notify the manager when a predetermined event is detected from the interaction, so that the user and the manager can indirectly communicate with each other or allow the user and the virtual pets to directly communicate with each other.

더 나아가, 실시예들은 가상펫들이 가상 소셜 커뮤니티를 이루고, 사용자의 요구에 적응하거나 사용자의 요구를 반영하면서 가상 소셜 커뮤니티 내에서 생활하도록 하게 할 수 있다.Furthermore, embodiments may allow virtual pets to form a virtual social community, adapt to a user's needs, or live within a virtual social community, reflecting the needs of the user.

일 측에 따른 사용자와 상호작용하는 가상 펫을 제공하는 방법은, 데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계; 상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계; 상기 사용자로부터 상호작용 정보를 수신하는 단계; 및 상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 단계를 포함한다.A method of providing a virtual pet interacting with a user along a side comprises: identifying, from at least one virtual pet stored in a database, a virtual pet individually sold to the user; Displaying an object corresponding to the identified virtual pet; Receiving interaction information from the user; And controlling an interaction operation of an object corresponding to the virtual pet in response to the received interaction information.

사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 사용자에게 고유의 가상 펫을 분양하는 단계를 더 포함한다.The method of providing a virtual pet interacting with a user further includes distributing a virtual pet unique to the user.

사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 단계를 더 포함한다.The method of providing a virtual pet interacting with a user further comprises transmitting the interaction information and information associated with an interaction operation of the virtual pet to a cloud server.

사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 상호작용 정보로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하는 단계; 및 상기 생성된 이벤트 신호를 관리자 단말로 전송하는 단계를 더 포함한다.A method of providing a virtual pet interacting with a user includes generating an event signal corresponding to the predetermined event when a predetermined event is detected from the interaction information; And transmitting the generated event signal to the administrator terminal.

사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하는 단계; 및 상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계를 더 포함한다.A method of providing a virtual pet interacting with a user includes receiving a management signal for the generated event signal from the administrator terminal; And controlling an interaction operation of the virtual pet in response to the management signal.

상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함한다.The management signal includes an instruction signal for the user corresponding to the predetermined event.

상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계는, 상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환하는 단계를 포함한다.Wherein the step of controlling the interaction operation of the virtual pet in response to the management signal comprises the steps of: receiving the management signal as at least one of a speech output signal corresponding to the speech of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet .

상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계는, 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식하는 단계를 포함한다.The step of identifying the virtual pets individually distributed to the user includes recognizing the user based on user information including at least one of face recognition information, iris recognition information, and ID information.

상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계는, 상기 사용자가 로봇에 접근 가능한 경우 상기 로봇을 통해 상기 객체를 디스플레이하는 단계; 및 상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하는 단계를 포함한다.Wherein displaying the object corresponding to the identified virtual pet comprises: displaying the object through the robot when the user is able to access the robot; And displaying the object via the mobile terminal when the user is accessible to the mobile terminal.

상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성할 수 있다.The at least one virtual pet stored in the database may form a virtual social community.

일 측에 따르면, 사용자와 상호작용하는 가상 펫을 제공하는 로봇은 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 사용자 식별부; 상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 디스플레이부; 및 상기 사용자로부터 상호작용 정보를 수신하고, 상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 상호작용부를 포함한다.According to one aspect of the present invention, a robot providing virtual pets interacting with a user includes: a user identification unit for identifying virtual pets individually sold to the user from at least one virtual pet; A display unit for displaying an object corresponding to the identified virtual pet; And an interaction unit for receiving interaction information from the user and controlling an interaction operation of the object corresponding to the virtual pet in response to the received interaction information.

로봇은 상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 통신부를 더 포함한다.The robot further includes a communication unit for transmitting the interaction information and the information associated with the interaction operation of the virtual pet to the cloud server.

상기 상호작용부는, 상기 상호작용의 결과로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하고, 로봇은 상기 생성된 이벤트 신호를 관리자 단말로 전송하는 통신부를 더 포함한다.The interaction unit may further include a communication unit that generates an event signal corresponding to the predetermined event when a predetermined event is detected from the result of the interaction, and the robot transmits the generated event signal to the administrator terminal.

상기 통신부는, 상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하고, 상기 상호작용부는, 상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어한다.The communication unit receives a management signal for the generated event signal from the administrator terminal, and the interaction unit controls an interaction operation of the virtual pet in response to the management signal.

상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함한다.The management signal includes an instruction signal for the user corresponding to the predetermined event.

상기 상호작용부는, 상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환한다.The interaction unit converts the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet.

상기 사용자 식별부는, 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식한다.The user identification unit recognizes the user based on user information including at least one of face identification information, iris recognition information, and ID information.

로봇은 상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하도록 상기 모바일 단말을 제어하는 통신부를 더 포함한다.The robot further includes a communication unit for controlling the mobile terminal to display the object through the mobile terminal when the user is able to access the mobile terminal.

상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성할 수 있다.The at least one virtual pet stored in the database may form a virtual social community.

일 측에 따르면, 사용자와 상호작용하는 가상 펫을 제공하는 서버는 상기 사용자에게 제공하기 위한 가상 펫을 저장하는 가상 펫 저장부; 상기 사용자로부터 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 수신하는 통신부; 및 상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 저장하여 분석하는 분석부를 포함한다.According to one aspect of the present invention, a server for providing a virtual pet interacting with a user includes: a virtual pet storage unit for storing virtual pets to be provided to the user; A communication unit for receiving interaction information from the user and information related to an interaction operation of the virtual pet; And an analysis unit for storing and analyzing the interaction information and the information associated with the interaction operation.

상기 분석부는, 상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 분석한 결과에 기초하여, 상기 가상 펫의 동작을 제어하기 위한 제어 신호를 생성하고, 상기 통신부는, 상기 사용자에게 상기 가상 펫이 제공되는 모바일 단말 및 로봇 중 적어도 하나로 상기 제어 신호를 전송한다.Wherein the analyzing unit generates a control signal for controlling the operation of the virtual pet based on a result of analyzing the interaction information and the information related to the interaction operation, And transmits the control signal to at least one of the provided mobile terminal and the robot.

상기 분석부는, 상기 상호작용 정보로부터 미리 정한 이벤트가 감지하여 이벤트 신호를 생성하고, 상기 통신부는, 상기 생성된 이벤트 신호를 로봇, 모바일 단말, 및 관리자 단말 중 적어도 하나로 전송한다.The analyzing unit detects an event predetermined from the interaction information to generate an event signal, and the communication unit transmits the generated event signal to at least one of a robot, a mobile terminal, and an administrator terminal.

상기 가상 펫 저장부는, 상기 사용자의 상기 가상 펫 및 다른 사용자의 가상 펫이 형성하는 가상 세계를 저장한다.The virtual pet storage unit stores a virtual world formed by the virtual pet of the user and the virtual pet of another user.

실시예들은 사용자가 가상 펫을 제공하는 로봇에 접근 불가능한 경우에도 모바일 단말을 통해서 사용자와 상호작용하는 가상 펫을 제공함으로써, 언제나 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.Embodiments can induce a user to have psychological stability and emotional stability at any time by providing virtual pets that interact with a user through a mobile terminal even when the user is unable to access the robot providing the virtual pets.

또한, 실시예들은 미리 정한 이벤트가 감지되는 경우 사용자와 관리자가 간접 대화하거나 사용자와 가상 펫이 직접 대화하게 함으로써 돌발 상황에서도 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.Embodiments can induce a user to have a psychological stability and an emotional stability even in an unexpected situation by indirect conversation between a user and a manager when a predetermined event is detected or by letting a user and a virtual pet directly communicate with each other.

더 나아가, 실시예들은 사용자가 실제 공간에서 부족한 부분에 대해 가상펫의 가상 소셜 커뮤니티로부터 대리만족을 얻게 함으로써 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.Furthermore, the embodiments may induce a user to have psychological stability and emotional stability by acquiring surrogate satisfaction from the virtual social community of the virtual pet for a portion of the user that is lacking in actual space.

도 1은 일 실시예에 사용자에게 심리적 안정감을 주기 위한 가상 펫을 제공하는 시스템을 설명하는 도면.
도 2는 일 실시예에 따른 로봇의 세부적인 구성을 설명하는 블럭도.
도 3은 일 실시예에 따른 모바일 단말의 세부적인 구성을 설명하는 블럭도.
도 4는 일 실시예에 따른 클라우드 서버의 세부적인 구성을 설명하는 블럭도.
도 5는 일 실시예에 따른 관리자 단말의 세부적인 구성을 설명하는 블럭도.
도 6은 일 실시예에 따른 사용자와 상호작용하는 가상 펫을 제공하는 방법을 나타내는 동작 흐름도.
FIG. 1 is a diagram illustrating a system for providing a virtual pet for giving psychological stability to a user in an embodiment. FIG.
2 is a block diagram illustrating a detailed configuration of a robot according to an embodiment;
3 is a block diagram illustrating a detailed configuration of a mobile terminal according to an embodiment;
4 is a block diagram illustrating a detailed configuration of a cloud server according to an embodiment;
5 is a block diagram illustrating a detailed configuration of an administrator terminal according to an exemplary embodiment;
6 is an operational flow diagram illustrating a method of providing a virtual pet that interacts with a user according to an embodiment;

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 사용자에게 심리적 안정감을 주기 위한 가상 펫을 제공하는 시스템(100)을 설명하는 도면이다.FIG. 1 is a diagram for explaining a system 100 for providing a virtual pet for giving psychological stability to a user in one embodiment.

가상 펫을 제공하는 시스템(100)은 로봇(110), 모바일 단말(120), 클라우드 서버(130), 및 관리자 단말(140)을 포함할 수 있다.The system 100 for providing virtual pets may include a robot 110, a mobile terminal 120, a cloud server 130, and an administrator terminal 140.

로봇(110)은 사용자에게 가상 펫 및 가상 펫과 연관된 서비스를 제공할 수 있다. 일 실시예에 따르면, 로봇(110)은 공용 시설에서 여러 사용자에게 공통적으로 제공되는 장치로서, 적어도 하나의 가상 펫을 제공할 수 있다. 예를 들어, 공용 시설은 유치원, 학교, 보육시설, 양로원, 및 요양원 등을 포함할 수 있다.The robot 110 may provide a virtual pet and a service associated with the virtual pet to the user. According to one embodiment, the robot 110 is a device commonly provided to a plurality of users in a common facility, and can provide at least one virtual pet. For example, public facilities may include kindergartens, schools, day care facilities, nursing homes, and nursing homes.

여기서, 가상 펫은 의인화된 가상의 펫(AVP, Anthropomorphized Virtual Pet) 캐릭터로서, 각각의 사용자 별로 고유한 캐릭터가 분양될 수 있다. 예를 들어, 각 사용자에게 유일하도록 맞춤형으로 분양된 가상 펫은 클라우드 서버(130)에서 구현되는 가상 세계 및 현실세계를 연결하는 매개체 역할을 수행할 수 있다.Here, the virtual pet is an anthropomorphized virtual pet (AVP) character, and a character unique to each user can be sold. For example, a virtual pet that is customized and sold to each user can serve as a medium connecting the virtual world realized in the cloud server 130 and the real world.

예를 들어, 로봇(110)은 일반적인 형태 또는 동일한 형태로 제작될 수 있다. 다만, 로봇(110)은 사용자를 인식(예를 들어, 얼굴 인식, 홍채 인식 등의 다양한 인식 방식 가능)하여 로봇(110)의 디스플레이 상에 사용자 별로 고유한 가상 펫을 디스플레이할 수 있다. 로봇(110)의 구체적인 구성은 하기 도 2에서 상세히 설명한다.For example, the robot 110 can be manufactured in a general shape or in the same shape. However, the robot 110 may display a virtual pet unique to each user on the display of the robot 110 by recognizing the user (e.g., various recognition methods such as face recognition and iris recognition). The specific configuration of the robot 110 will be described in detail below with reference to FIG.

다른 일 실시예에 따르면, 로봇(110)의 캐릭터가 획일화될 경우 발생할 수 있는 이질감을 감소시키기 위해, 다양하게 캐릭터화 된 로봇(110)이 사용자의 요구 및 취향에 맞게 맞춤형 내지 주문형으로 개발될 수 있다. 다양하게 캐릭터화된 로봇(110)은 각 사용자에게 분양 내지 분배될 수 있다.According to another embodiment, in order to reduce the sense of heterogeneity that may occur when the character of the robot 110 is uniformized, various characterized robots 110 are developed customized or customized according to the needs and preferences of the user . The variously characterized robots 110 can be distributed to each user.

모바일 단말(120)은 사용자가 로봇(110)에 접근할 수 없는 경우, 사용자에게 분양된 가상 펫을 디스플레이할 수 있다. 예를 들어, 모바일 단말(120)은 등록된 사용자에게 분양된 가상 펫을 저장할 수 있다. 여기서, 모바일 단말(120)은 특정 사용자에게 고유하게 분양된 가상 펫을 저장할 수 있으며, 예를 들어, 별도의 칩을 모바일 단말(120) 내에 장착할 수 있다. 모바일 단말(120)은 예를 들어, 스마트폰, 태블릿PC 등을 포함할 수 있다. 모바일 단말(120)의 구체적인 구성은 하기도 3에서 상세히 설명한다.If the user can not access the robot 110, the mobile terminal 120 may display the virtual pet distributed to the user. For example, the mobile terminal 120 may store a pre-empted virtual pet to a registered user. Here, the mobile terminal 120 may store a virtual pet uniquely distributed to a specific user, for example, and may mount a separate chip in the mobile terminal 120. The mobile terminal 120 may include, for example, a smart phone, a tablet PC, and the like. The specific configuration of the mobile terminal 120 will be described in detail in FIG.

예를 들어, 가상 펫은 사용자가 로봇(110)에 접근 가능한 경우에는 로봇(110)을 통해서 사용자와 상호작용할 수 있다. 사용자가 로봇(110)에 접근이 불가능하고 모바일 단말(120)에 접근 가능한 경우에는, 가상 펫은 모바일 단말(120)을 통해 사용자와 상호작용할 수 있다. 이로 인하여, 사용자는 언제나 가상 펫과 상호작용할 수 있다. For example, the virtual pet may interact with the user through the robot 110 when the user is able to access the robot 110. If the user is inaccessible to the robot 110 and is able to access the mobile terminal 120, the virtual pets may interact with the user via the mobile terminal 120. This allows the user to interact with the virtual pet at any time.

여기서, 상호작용은 사람과 가상 펫 간에 교환되는 일련의 대화 내지 행동 등의 동작을 포함하는 것으로서, 예를 들면, 사용자가 가상 펫과 나누는 대화 등을 포함할 수 있다.Here, the interaction includes an action such as a series of conversations or actions exchanged between a person and a virtual pet, and may include, for example, a conversation that the user shares with a virtual pet.

사용자가 로봇(110)에 접근 가능한 경우는 사용자가 로봇(110)과 직접 상호작용할 수 있는 상태를 나타낼 수 있고, 로봇(110)에 접근 불가능한 경우는 사용자가 로봇(110)과 직접적인 상호작용이 불가능한 상태를 나타낼 수 있다. 사용자가 모바일 단말(120)에 접근 가능한 경우는 사용자가 로봇(110)에 접근 불가능하면서 모바일 단말(120)과 직접적으로 상호작용할 수 있는 상태를 나타낼 수 있다.When the user can access the robot 110, the user can directly interact with the robot 110. If the user can not access the robot 110, the user can not directly interact with the robot 110 State. If the user is accessible to the mobile terminal 120, the user may be inaccessible to the robot 110 and may be able to interact directly with the mobile terminal 120.

클라우드 서버(130)는 각 사용자에게 분양된 적어도 하나의 가상 펫과 관련된 정보를 저장할 수 있다. 예를 들어, 클라우드 서버(130)는 사용자에게 분양된 가상 펫들이 클라우드 서버(130) 내에서 형성하는 가상 소셜 커뮤니티(Virtual Social Community)를 및 가상 세계를 저장할 수 있다. 클라우드 서버(130)의 구체적인 구성은 하기 도 4에서 상세히 설명한다.The cloud server 130 may store information associated with at least one virtual pet distributed to each user. For example, the cloud server 130 may store a virtual social community formed by the virtual pets distributed to the user in the cloud server 130 and a virtual world. The specific configuration of the cloud server 130 will be described in detail in Fig.

여기서, 가상 소셜 커뮤니티는 사용자의 가상 펫 및 다른 사용자의 가상 펫이 상호작용하는 공간을 나타낼 수 있다. 가상 세계는 가상 펫들이 가상 소셜 커뮤니티에서 구현한 임의의 가상 세계로서, 가상적으로 구현되는 영화 속 세계 내지 동화 속 세계 등을 포함할 수 있다. 사용자는 가상 펫을 통해 가상 세계 속의 주인공을 간접 체험할 수 있고, 가상 세계의 삶을 느낄 수 있다. 예를 들어, 여러 사용자들이 만든 가상 펫은 가상 세계의 일원이 될 수 있고, 사용자는 사용자의 가상 펫 또는 사용자 자신을 해당 가상세계의 주인공으로서 인식할 수 있다.Here, the virtual social community can represent a space where a user's virtual pet and another user's virtual pet interact with each other. A virtual world is any virtual world that virtual pets have implemented in a virtual social community, and may include a virtual world in a movie or a fairy tale world. The user can indirectly experience the hero in the virtual world through virtual pets, and feel the life of the virtual world. For example, a virtual pet created by a plurality of users can be a member of a virtual world, and a user can recognize the user's virtual pet or the user himself as a protagonist of the virtual world.

일 실시예에 따르면, 가상 펫을 제공하는 시스템(100)은 가상펫들이 가상 소셜 커뮤니티를 이루고, 사용자의 요구에 적응하거나 사용자의 요구를 반영하면서 가상 소셜 커뮤니티 내에서 생활하도록 하게 할 수 있다. 이를 통해 사용자는 실제 공간에서 부족한 부분을 가상펫의 가상 소셜 커뮤니티로부터 충족 받음으로써 대리만족을 얻게 되므로, 가상 펫을 제공하는 시스템(100)은 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.According to one embodiment, the system 100 for providing virtual pets can allow virtual pets to form a virtual social community, adapt to the user's needs, or live within the virtual social community, reflecting the user's needs. Accordingly, since the user satisfies surrogate satisfaction by being satisfied from the virtual social community of the virtual pet, the system 100 providing the virtual pet can induce the user to have psychological stability and emotional stability.

또한, 클라우드 서버(130)는 상호작용 정보에 기초하여 로봇(110) 및 모바일 단말(120)의 상호작용 동작을 제어할 수 있다. 클라우드 서버(130)는 상호작용 정보로부터 미리 정한 이벤트가 감지되는 경우, 관리자에게 해당 이벤트의 발생 여부를 알릴 수 있다.In addition, the cloud server 130 may control the interaction operation of the robot 110 and the mobile terminal 120 based on the interaction information. When a predetermined event is detected from the interaction information, the cloud server 130 may notify the administrator of the occurrence of the event.

이 때, 미리 정한 이벤트는 사용자에게 발생하는 비정상적이거나 돌발적인 상황일 수 있으며, 예를 들면, 사용자의 대화나 행동이 과도한 흥분상태에 있거나 사고를 당하여 다치는 상황 등을 나타낼 수 있다.In this case, the predetermined event may be an abnormal or unexpected situation that occurs to the user, and may indicate, for example, a situation where the user's conversation or action is in an excessive excitement state or is injured by an accident.

관리자 단말(140)은 관리자가 로봇(110) 및 모바일 단말(120)을 관리하기 위한 단말을 나타낼 수 있다. 관리자는 보호자, 학부모, 교사, 및 의사 등을 포함할 수 있다. 관리자 단말(140)은 로봇(110) 및 모바일 단말(120)에서 제공되는 가상 펫과 사용자 간의 상호작용을 모니터링할 수 있고, 상호작용 중 발생하는 미리 정한 이벤트에 대해 관리 신호를 생성하여 로봇(110) 및 모바일 단말(120)로 전송할 수 있다. 관리자 단말(140)의 구체적인 구성은 하기 도 5에서 상세히 설명한다.The administrator terminal 140 may represent a terminal for managing the robot 110 and the mobile terminal 120 by an administrator. The administrator may include a guardian, a parent, a teacher, and a doctor. The administrator terminal 140 can monitor the interaction between the virtual pet and the user provided by the robot 110 and the mobile terminal 120 and generates a management signal for a predetermined event occurring during the interaction, ) And the mobile terminal 120, respectively. The specific configuration of the administrator terminal 140 will be described in detail with reference to FIG.

관리자는 미리 정한 이벤트(예를 들어, 사용자가 다친 상황)가 발생한 경우, 해당 이벤트에 대응한 관리 신호(예를 들어, 사용자를 안심시키는 대화 내용)를 로봇(110) 및 모바일 단말(120)로 전송함으로써, 사용자의 심리적 안정감을 유도할 수 있다.
When a predetermined event (for example, a situation in which a user is injured) occurs, the manager sends a management signal (for example, a conversation content for reassuring the user) corresponding to the event to the robot 110 and the mobile terminal 120 The psychological stability of the user can be induced.

도 2는 일 실시예에 따른 로봇(110)의 세부적인 구성을 설명하는 블럭도이다.2 is a block diagram illustrating the detailed configuration of the robot 110 according to one embodiment.

사용자와 상호작용하는 가상 펫을 제공하는 로봇(110)은 사용자 식별부(210), 디스플레이부(220), 상호작용부(230) 및 통신부(240)를 포함할 수 있다.The robot 110 providing a virtual pet that interacts with a user may include a user identification unit 210, a display unit 220, an interaction unit 230, and a communication unit 240.

사용자 식별부(210)는 데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 사용자에게 개별적으로 분양된 가상 펫을 식별할 수 있다. 데이터베이스는 로봇(110)에 포함되거나, 원격의 서버에 포함될 수 있다. 로봇(110)은 데이터베이스와 유무선으로 연결될 수 있고, 인터넷 등 네트워크를 통하여 연결될 수 있다. 데이터베이스는 적어도 하나의 가상 펫을 저장한다. 데이터베이스에 저장된 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성할 수 있다.The user identification unit 210 may identify virtual pets individually sold to the user from at least one virtual pet stored in the database. The database may be included in the robot 110 or included in a remote server. The robot 110 may be connected to a database by wired or wireless, and may be connected to the robot via a network such as the Internet. The database stores at least one virtual pet. At least one virtual pet stored in the database may form a virtual social community.

또한, 사용자 식별부(210)는 사람들과 생활하던 중 특정 사람을 인식하거나 특정 사람과 상호작용이 필요한 지 여부 등을 식별할 수 있다. 사용자 식별부(210)는 인식된 사용자에 대응하는 가상 펫을 식별할 수 있다. 사용자 식별부(210)는, 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 사용자를 인식할 수 있다. 예를 들어, 사용자 식별부(210)는 카메라를 통한 얼굴 인식 및 홍채 인식, 마이크를 통한 음성 인식 등에 기초하여 사용자를 인식할 수 있다.In addition, the user identification unit 210 can identify a specific person while living with the person, and can identify whether or not a specific person needs to interact with the person. The user identification unit 210 can identify the virtual pet corresponding to the recognized user. The user identification unit 210 can recognize the user based on user information including at least one of face identification information, iris recognition information, and ID information. For example, the user identification unit 210 can recognize a user based on face recognition and iris recognition through a camera, speech recognition through a microphone, and the like.

디스플레이부(220)는 식별된 가상 펫에 대응하는 객체를 디스플레이할 수 있다. 가상 펫에 대응하는 객체는 각 사용자마다 2D 또는 3D의 고유한 캐릭터 형태로 디스플레이될 수 있다. 가상 펫에 대응하는 객체는 감정 표현이 가능할 수 있다. 여기서, 디스플레이부(220)는 가상 펫이 상호작용부(230)가 결정한 상호작용 동작을 수행하도록 객체를 디스플레이할 수 있다.The display unit 220 may display an object corresponding to the identified virtual pet. The object corresponding to the virtual pet may be displayed in a unique character form of 2D or 3D for each user. The object corresponding to the virtual pet may be able to express emotion. Here, the display unit 220 may display the object so that the virtual pet performs an interaction operation determined by the interaction unit 230.

상호작용부(230)는 사용자로부터 상호작용 정보를 수신하고, 수신된 상호작용 정보에 응답하여, 가상 펫에 대응하는 객체의 상호작용 동작을 제어할 수 있다. 예를 들어, 사용자로부터 수신된 상호작용 정보는, 사용자가 가상 펫과 상호작용하기 위한 사용자의 동작과 관련된 정보로서, 사용자의 음성, 사용자의 영상 등을 포함할 수 있다. 여기서, 상호작용부(230)는 가상 펫에 대응하는 객체의 상호작용이 시각적으로 표현되어야 하는 경우, 해당 상호작용 동작에 대응하는 객체의 영상을 디스플레이부(220)를 통해 디스플레이하고, 청각적으로 표현되어야 하는 경우 해당 상호작용 동작에 대응하는 객체의 음성을 출력할 수 있다.The interaction unit 230 may receive interaction information from a user and, in response to the received interaction information, control an interaction operation of an object corresponding to the virtual pet. For example, the interaction information received from the user may include the user's voice, the user's image, etc., as information related to the user's operation for interacting with the virtual pet. Here, when the interaction of the object corresponding to the virtual pet is to be visually expressed, the interaction unit 230 displays the image of the object corresponding to the interaction action through the display unit 220, And output the voice of the object corresponding to the interaction operation if it is to be expressed.

객체의 상호작용 동작은 상호작용 정보에 응답하여 결정된 가상 펫의 동작으로서, 상호작용부(230)에 의해 직접 결정되거나 클라우드 서버에 의해 결정될 수 있다. 예를 들어, 상호작용을 대화로 가정하는 경우, 로봇(110)은 사용자와의 자체적으로 저장하고 있는 정보로부터 대화에 필요한 정보를 추출하거나, 클라우드 서버에서 추론된 정보로부터 대화에 필요한 정보를 추출할 수 있다. 추출된 정보에 기초하여 상호작용부(230)가 가상 펫의 상호작용 동작을 결정할 수 있다.The interaction operation of the object may be determined directly by the interaction unit 230 or may be determined by the cloud server, as an operation of the virtual pet determined in response to the interaction information. For example, when the interaction is assumed to be a conversation, the robot 110 extracts information necessary for conversation from the information stored in itself with the user, or extracts information necessary for conversation from information deduced from the cloud server . Based on the extracted information, the interaction unit 230 can determine the interaction operation of the virtual pet.

통신부(240)는 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송할 수 있다. 통신부(240)는 상호작용 정보 및 상호작용 동작과 연관된 정보를 그대로 또는 압축해서 클라우드 서버로 전송할 수 있다. 예를 들어, 상호작용을 대화로 가정하는 경우, 통신부(240)는 사용자와 로봇(110) 간의 대화 내용을 전체 또는 요약해서 클라우드 서버로 전송할 수 있다.The communication unit 240 may transmit the interaction information and the information associated with the interaction operation of the virtual pet to the cloud server. The communication unit 240 can directly transmit or compress the information related to the interaction information and the interaction operation to the cloud server. For example, when the interaction is assumed to be a conversation, the communication unit 240 may transmit the conversation contents between the user and the robot 110 in a full or summary manner to the cloud server.

또한, 상호작용부(230)는, 상호작용의 결과로부터 미리 정한 이벤트가 감지되면, 미리 정한 이벤트에 대응하는 이벤트 신호를 생성할 수 있다. 통신부(240)가 생성된 이벤트 신호를 관리자 단말로 전송할 수 있다. 통신부(240)는, 관리자 단말로부터 생성된 이벤트 신호에 대한 관리 신호를 수신하고, 상호작용부(230)는, 관리 신호에 응답하여 가상 펫의 상호작용 동작을 제어할 수 있다. 여기서, 관리 신호는 미리 정한 이벤트에 대응하여 사용자에 대한 지시 신호를 포함할 수 있다. 구체적으로 지시 신호는 해당 이벤트에 대하여 사용자에게 심리적 안정을 유도하기 위해 가상 펫의 상호작용 동작을 제어하기 위한 신호를 나타낼 수 있다. 이 경우, 상호작용부(230)는, 관리 신호를 가상 펫의 음성에 대응하는 음성 출력 신호 및 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환할 수 있다.Further, when a predetermined event is detected from the result of the interaction, the interaction unit 230 can generate an event signal corresponding to a predetermined event. The communication unit 240 can transmit the generated event signal to the administrator terminal. The communication unit 240 receives the management signal for the event signal generated from the administrator terminal, and the interaction unit 230 can control the interaction operation of the virtual pet in response to the management signal. Here, the management signal may include an instruction signal to the user corresponding to a predetermined event. Specifically, the instruction signal may indicate a signal for controlling the interaction operation of the virtual pet in order to induce psychological stability to the user for the event. In this case, the interaction unit 230 may convert the management signal into at least one of an audio output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet.

다른 일 실시예에 따르면, 통신부(240)는 사용자가 모바일 단말에 접근 가능한 경우 모바일 단말을 통해 객체를 디스플레이하도록 모바일 단말을 제어할 수 있다. 모바일 단말의 구체적인 동작은 하기 도 3에서 상세히 설명한다.
According to another embodiment, the communication unit 240 may control the mobile terminal to display the object through the mobile terminal when the user is able to access the mobile terminal. The specific operation of the mobile terminal will be described in detail in FIG.

도 3은 일 실시예에 따른 모바일 단말(120)의 세부적인 구성을 설명하는 블럭도이다.3 is a block diagram illustrating a detailed configuration of a mobile terminal 120 according to an embodiment.

모바일 단말(120)은 디스플레이부(310), 처리부(320) 및 통신부(330)를 포함할 수 있다.The mobile terminal 120 may include a display unit 310, a processing unit 320, and a communication unit 330.

디스플레이부(310)는 처리부(320)의 제어에 따라 가상 펫에 대응하는 객체를 디스플레이할 수 있다.The display unit 310 may display an object corresponding to the virtual pet under the control of the processing unit 320. [

처리부(320)는 가상 펫에 대응하는 객체의 상호작용 동작을 제어할 수 있다. 예를 들어, 처리부(320)는 사용자가 로봇에 접근 불가능하고, 모바일 단말(120)에 접근 가능한 경우, 모바일 단말(120)이 사용자에게 가상 펫을 제공하도록 제어할 수 있다. 예를 들어, 처리부(320)는 사용자에게 개별적으로 분양된 가상 펫을 식별하여, 대응하는 객체를 디스플레이하고, 수신된 상호작용 정보에 응답하여 객체의 상호작용 동작을 제어할 수 있다.The processing unit 320 may control an interaction operation of the object corresponding to the virtual pet. For example, the processing unit 320 may control the mobile terminal 120 to provide a virtual pet to the user when the user is inaccessible to the robot and is able to access the mobile terminal 120. For example, the processing unit 320 may identify virtual pets individually distributed to the user, display the corresponding objects, and control the interactive operation of the objects in response to the received interaction information.

또한, 처리부(320)는 로봇(110)에게 사용자가 접근 불가능한 경우, 로봇(110)의 사용자 식별부(210) 및 상호작용부(230)와 유사한 동작을 수행할 수 있다. 예를 들어, 처리부(320)는 사용자가 로봇(110)에 접근 불가능한 경우, 모바일 단말(120)이 사용자와 상호작용하도록 제어할 수 있고, 대화 내용, 행동, 소리 등 다양한 상황에 따라, 미리 정한 이벤트가 감지되면(예를 들어, 클라우드 서버가 감지), 해당 이벤트에 대응하는 이벤트 신호를 관리자 단말(140)로 전송할 수 있다.The processing unit 320 may perform operations similar to the user identification unit 210 and the interaction unit 230 of the robot 110 when the user can not access the robot 110. For example, the processing unit 320 may control the mobile terminal 120 to interact with the user when the user is inaccessible to the robot 110, and may control the mobile terminal 120 in accordance with various conditions such as conversation contents, When an event is detected (for example, the cloud server detects), the event signal corresponding to the event can be transmitted to the administrator terminal 140.

통신부(330)는 사용자로부터 수신한 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송할 수 있다. 예를 들어, 통신부(330)는 모바일 단말(120) 상의 가상 펫과의 대화, 행동 등을 로봇을 거치거나 직접 클라우드 서버로 전송할 수 있다. 여기서, 가상 펫과의 대화 및 행동은 전체가 전송되거나 압축되어 전송될 수 있다.
The communication unit 330 may transmit the interaction information received from the user and the information related to the interaction operation of the virtual pet to the cloud server. For example, the communication unit 330 can transmit a conversation, an action, and the like with the virtual pet on the mobile terminal 120 via the robot or directly to the cloud server. Here, the conversation and the action with the virtual pet can be transmitted as a whole or compressed and transmitted.

도 4는 일 실시예에 따른 클라우드 서버(130)의 세부적인 구성을 설명하는 블럭도이다.4 is a block diagram illustrating a detailed configuration of the cloud server 130 according to an embodiment.

사용자와 상호작용하는 가상 펫을 제공하는 서버는 가상 펫 저장부(410), 통신부(420), 및 분석부(430)를 포함할 수 있다. 여기서, 서버는 클라우드 서버(130)를 포함할 수 있다.A server for providing a virtual pet that interacts with a user may include a virtual pet storage unit 410, a communication unit 420, and an analysis unit 430. Here, the server may include a cloud server 130.

가상 펫 저장부(410)는 가상 소셜 커뮤니티를 형성하는 가상 펫을 사용자에게 제공하기 위해 저장할 수 있다. 또한, 가상 펫 저장부(410)는, 사용자의 가상 펫 및 다른 사용자의 가상 펫이 형성하는 가상 세계를 저장할 수 있다. 여기서, 가상 소셜 커뮤니티는 사용자의 가상 펫 및 다른 사용자의 가상 펫이 상호작용하는 가상적인 공간을 나타낼 수 있고, 가상 세계는 가상 펫에 의해 가상적으로 형성될 수 있다.The virtual pet storage unit 410 may store virtual pets forming a virtual social community to provide to the user. In addition, the virtual pet storage unit 410 may store a virtual world formed by a virtual pet of a user and a virtual pet of another user. Here, the virtual social community can represent a virtual space in which the virtual pet of the user and the virtual pet of the other user interact, and the virtual world can be virtually formed by the virtual pet.

통신부(420)는 사용자로부터 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 수신할 수 있다.The communication unit 420 may receive information related to the interactive operation of the virtual pet and the interaction information from the user.

분석부(430)는 상호작용 정보 및 상호작용 동작과 연관된 정보를 저장하여 분석할 수 있다. 여기서 분석부(430)는 빅데이터 및 상황인지추론모듈을 포함할 수 있다. 일 실시예에 따르면 분석부(430)가, 통신부(420)에 의해 수신된 상호작용 정보 및 상호작용 동작과 연관된 정보를 분석한 결과에 기초하여, 가상 펫의 동작을 제어하기 위한 제어 신호를 생성할 수 있다. 통신부(420)는, 사용자에게 가상 펫이 제공되는 모바일 단말 및 로봇 중 적어도 하나로 제어 신호를 전송할 수 있다. 제어 신호는 가상 펫의 상호작용 동작을 제어하기 위한 신호를 나타낼 수 있다.The analysis unit 430 may store and analyze information related to interaction information and interaction operations. The analysis unit 430 may include a big data and a context awareness module. According to one embodiment, the analyzing unit 430 generates a control signal for controlling the operation of the virtual pet based on the result of analyzing the information related to the interaction information and the interaction operation received by the communication unit 420 can do. The communication unit 420 may transmit a control signal to at least one of a mobile terminal and a robot provided with a virtual pet to the user. The control signal may represent a signal for controlling the interaction operation of the virtual pet.

또한, 분석부(430)는, 상호작용 정보로부터 미리 정한 이벤트가 감지하여 이벤트 신호를 생성할 수 있고, 통신부(420)는, 생성된 이벤트 신호를 로봇, 모바일 단말, 및 관리자 단말 중 적어도 하나로 전송할 수 있다. 이벤트 신호가 로봇 및 모바일 단말로 전송되는 경우, 로봇 및 모바일은 해당 이벤트에 대해 미리 정해진 상호작용 동작을 수행할 수 있다. 이벤트 신호가 관리자 단말로 전송되는 경우, 관리자는 해당 이벤트에 대응하는 관리 신호를 관리자가 직접 입력할 수 있다.The analyzer 430 may generate an event signal by sensing a predetermined event from the interaction information, and the communication unit 420 may transmit the generated event signal to at least one of the robot, the mobile terminal, and the administrator terminal . When an event signal is transmitted to the robot and the mobile terminal, the robot and the mobile can perform predetermined interaction operations on the event. When the event signal is transmitted to the manager terminal, the manager can directly input the management signal corresponding to the event.

여기서, 이벤트에 따라서는 바로 클라우드 서버(130)가 자체적으로 판단하여 사용자에게 제어 신호를 피드백할 수 있다. 미리 정한 이벤트로 인식하기에 모호하거나, 불확실한 경우에는 해당 이벤트에 대응하는 내용을 관리자 단말로 전송하여 관리자가 이상 상태(예를 들어, 위험 상황 내지 사고 상황)와 연관된 이벤트인지 확인하게 할 수 있다.In this case, the cloud server 130 directly determines the event and can feedback the control signal to the user. If it is ambiguous or uncertain to recognize the event as a predetermined event, the contents corresponding to the event may be transmitted to the administrator terminal so that the administrator can confirm whether the event is related to an abnormal state (for example, a dangerous situation or an accident situation).

또한, 클라우드 서버(130)의 분석부(430)는 사용자와 관련하여 특이한 상황이 인지되거나 추론되면 그 상황을 분석하여, 미리 정한 이벤트에 대응하는 이벤트 신호를 생성할 수 있다. 생성된 이벤트 신호는 통신부(420)를 통해 관리자(예를 들어, 보호자, 학부모, 선생님, 친구, 전담상담원 등)에게 전송되거나, 로봇 및 모바일 단말에게 전송될 수 있다. 이벤트 신호를 수신한 관리자는 가상 펫을 통해서 사용자와 간접 대화를 할 수 있다. 또한, 이벤트 신호를 수신한 로봇 및 모바일 단말은 사용자와 직접 대화할 수 있다. 상술한 과정을 통해 사용자와 상호작용하는 가상 펫을 제공하는 서버는 사용자(예를 들어, 어린이 및 노약자)가 심리적 안정감 내지 정신적 안정감을 갖도록 유도할 수 있다.In addition, the analysis unit 430 of the cloud server 130 may analyze the situation or generate an event signal corresponding to a predetermined event when a specific situation is recognized or inferred with respect to the user. The generated event signal may be transmitted to an administrator (for example, a guardian, a parent, a teacher, a friend, a dedicated counselor, etc.) through the communication unit 420 or may be transmitted to a robot and a mobile terminal. The administrator receiving the event signal can indirectly communicate with the user through the virtual pet. In addition, the robot and the mobile terminal receiving the event signal can directly communicate with the user. A server providing virtual pets interacting with a user through the above-described process can induce a user (e.g., a child and a senior citizen) to have psychological stability or mental stability.

일 실시예에 따르면, 로봇에서 제공되는 가상 펫 또는 모바일 단말에서 제공되는 가상 펫과 사용자는 상호작용할 수 있고, 상호작용하는 과정의 모든 내용은 간략화되어 클라우드 서버(130)의 분석부(430)에 전송되어 저장될 수 있다.
According to an embodiment, the virtual pets provided by the robot or the virtual pets provided by the mobile terminal can interact with each other and all the contents of the interaction process are simplified and transmitted to the analysis unit 430 of the cloud server 130 Can be transmitted and stored.

도 5는 일 실시예에 따른 관리자 단말(140)의 세부적인 구성을 설명하는 블럭도이다.5 is a block diagram illustrating a detailed configuration of the administrator terminal 140 according to an embodiment.

관리자 단말(140)은 관리자 입력부(510), 처리부(520) 및 통신부(530)를 포함할 수 있다.The administrator terminal 140 may include an administrator input unit 510, a processing unit 520, and a communication unit 530.

관리자 입력부(510)는 관리자가 사용자에게 전달하고자 하는 지시 말 등을 입력받을 수 있다. 예를 들어, 관리자는 보호자로서, 관리자 단말(140)의 통신부(530)를 통해 지시, 말 등을 포함하는 관리 신호를 로봇 또는 모바일 단말의 가상 펫을 통해 사용자에게 전달할 수 있다.The administrator input unit 510 can receive an instruction word or the like to be transmitted to the user by the administrator. For example, as an administrator, the administrator can transmit a management signal including instructions, words, and the like to the user through the virtual pets of the robot or the mobile terminal through the communication unit 530 of the administrator terminal 140.

통신부(530)는 모바일 단말, 로봇 및 클라우드 서버로부터 미리 정한 이벤트에 대응하는 이벤트 신호를 수신할 수 있다. 또한, 통신부(530)는 모바일 단말, 로봇 및 클라우드 서버로부터 사용자의 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 수신할 수 있다.The communication unit 530 may receive an event signal corresponding to a predetermined event from the mobile terminal, the robot, and the cloud server. In addition, the communication unit 530 may receive user interaction information from the mobile terminal, the robot and the cloud server, and information related to the interaction operation of the virtual pet.

처리부(520)는 관리자 입력부(510)를 통해 입력된 관리자의 지시 및 말 등을 관리 신호로 변환할 수 있다. 또한, 처리부(520)는 관리 신호를 음성 변조, 로봇의 행동 등으로 변환할 수 있다. 변환된 관리 신호는 통신부(530)를 통해 로봇 또는 모바일 단말로 전달될 수 있다. 이를 통해, 사용자는 관리 신호를 관리자의 대응이 아닌 로봇의 대응으로 인식할 수 있다.
The processing unit 520 can convert the instructions and words of the administrator inputted through the administrator input unit 510 into management signals. Further, the processing unit 520 can convert the management signal into voice modulation, behavior of the robot, and the like. The converted management signal may be transmitted to the robot or the mobile terminal through the communication unit 530. Thus, the user can recognize the management signal as a response of the robot, not the response of the manager.

도 6은 일 실시예에 따른 사용자와 상호작용하는 가상 펫을 제공하는 방법을 나타내는 동작 흐름도이다.6 is an operational flow diagram illustrating a method for providing a virtual pet that interacts with a user according to one embodiment.

일 실시예에 따르면, 사용자에게 고유의 가상 펫이 미리 분양될 수 있다. 사용자는 로봇, 모바일 단말 등을 통해 고유의 가상 펫을 분양받을 수 있고, 분양된 가상 펫은 사용자와 매칭되어 클라우드 서버에 등록될 수 있다.According to one embodiment, a virtual pet unique to a user can be pre-sold. The user can receive a unique virtual pet through a robot, a mobile terminal, etc., and the sold virtual pet can be registered with the cloud server by matching with the user.

우선, 단계(610)에서 로봇은 사용자를 인식할 수 있다. 예를 들어, 로봇은 가상 소셜 커뮤니티를 형성하는 적어도 하나의 가상 펫으로부터, 사용자에게 개별적으로 분양된 가상 펫을 식별할 수 있다. 예를 들어, 로봇은 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 사용자를 인식할 수 있다.First, in step 610, the robot can recognize the user. For example, the robot can identify virtual pets sold individually to the user from at least one virtual pets forming a virtual social community. For example, the robot can recognize the user based on user information including at least one of face recognition information, iris recognition information, and ID information.

그리고 단계(620)에서 로봇은 가상 펫을 디스플레이할 수 있다. 로봇은 사용자에게 고유하게 식별되는 가상 펫에 대응하는 객체를 디스플레이할 수 있다.In step 620, the robot may display a virtual pet. The robot can display an object corresponding to a virtual pet uniquely identified to the user.

이어서 단계(630)에서 로봇은 상호작용 정보를 클라우드 서버로 전송할 수 있다. 로봇은 사용자로부터 상호작용 정보를 수신할 수 있다. 로봇은 수신된 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송할 수 있다. 가상 펫의 상호작용 동작이 클라우드 서버에 의해 결정된 경우에는, 로봇이 상호작용 동작과 연관된 정보는 전송하지 않을 수도 있다.Then, in step 630, the robot may send interaction information to the cloud server. The robot can receive interaction information from a user. The robot may transmit information related to the received interaction information and the interaction action of the virtual pet to the cloud server. If the interaction of the virtual pet is determined by the cloud server, the robot may not transmit the information associated with the interaction operation.

다만, 이로 한정하는 것은 아니고, 로봇은 관리자 단말로 직접 상호작용 정보를 전달할 수도 있다.However, the present invention is not limited to this, and the robot may directly transmit the interaction information to the administrator terminal.

그리고 단계(640)에서 클라우드 서버는 상호작용 정보를 분석할 수 있다. 클라우드 서버는 상호작용 정보를 분석하여, 그에 대응하는 가상 펫의 상호작용 동작을 결정하거나, 상호작용 정보로부터 미리 정한 이벤트가 발생했는지 여부를 판단할 수 있다. 다만, 이로 한정하는 것은 아니고, 로봇, 모바일 단말 및 관리자 단말도 상호작용 정보를 분석할 수 있다.In step 640, the cloud server may analyze the interaction information. The cloud server may analyze the interaction information, determine the interaction action of the corresponding virtual pet, or determine whether a predetermined event has occurred from the interaction information. However, the present invention is not limited to this, and the robot, the mobile terminal, and the administrator terminal can also analyze the interaction information.

이어서 단계(650)에서 클라우드 서버는 상호작용 동작을 제어할 수 있다. 클라우드 서버는 수신된 상호작용 정보에 응답하여, 가상 펫에 대응하는 객체의 상호작용 동작을 제어할 수 있다. 다만, 이로 한정하는 것은 아니고, 로봇이 직접 상호작용 정보를 분석하여, 가상 펫의 상호작용 동작을 제어할 수 있다.The cloud server can then control the interaction operation at step 650. The cloud server may, in response to the received interaction information, control the interactive operation of the object corresponding to the virtual pet. However, the present invention is not limited to this, and the robot can directly analyze the interaction information and control the interaction operation of the virtual pet.

그리고 단계(660)에서 클라우드 서버는 이벤트 신호를 관리자 단말로 전송할 수 있다. 클라우드 서버는 상호작용 정보로부터 미리 정한 이벤트가 감지되면, 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하여, 생성된 이벤트 신호를 관리자 단말로 전송할 수 있다. 다만, 이로 한정하는 것은 아니고, 로봇 및 모바일 단말이 직접 미리 정한 이벤트를 감지하여 이벤트 신호를 관리자 단말로 전송할 수도 있다.In step 660, the cloud server may send an event signal to the administrator terminal. When a predetermined event is detected from the interaction information, the cloud server generates an event signal corresponding to a predetermined event, and transmits the generated event signal to the administrator terminal. However, the present invention is not limited to this, and the robot and the mobile terminal may directly detect the predetermined event and transmit the event signal to the administrator terminal.

이어서 단계(670)에서 관리자 단말은 관리 신호를 생성할 수 있다. 여기서, 관리 신호는 미리 정한 이벤트에 대응하여 사용자에 대한 지시 신호를 포함할 수 있다.In step 670, the administrator terminal may then generate a management signal. Here, the management signal may include an instruction signal to the user corresponding to a predetermined event.

그리고 단계(680)에서 관리자 단말은 관리 신호를 로봇으로 전송할 수 있다. 로봇은 관리자 단말로부터 생성된 이벤트 신호에 대한 관리 신호를 수신할 수 있고, 관리 신호에 응답하여 가상 펫의 상호작용 동작을 제어할 수 있다. 여기서, 로봇, 모바일 단말, 클라우드 서버 및 관리자 단말은 관리 신호를 가상 펫의 음성에 대응하는 음성 출력 신호 및 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환할 수 있다.In step 680, the administrator terminal may transmit the management signal to the robot. The robot can receive the management signal for the event signal generated from the administrator terminal and can control the interaction operation of the virtual pet in response to the management signal. Here, the robot, the mobile terminal, the cloud server, and the administrator terminal may convert the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet.

다만, 이로 한정하는 것은 아니고, 사용자가 로봇에 접근 불가능하고 모바일 단말에 접근 가능한 경우, 모바일 단말은 로봇의 기능을 수행할 수 있다. 예를 들어, 모바일 단말은 클라우드 서버 및/또는 관리자 단말과의 통신을 통하여 전술한 로봇의 기능을 그대로 수행할 수 있다. 이 경우, 모바일 단말은 로봇과 독립적으로 동작할 수 있다.However, the present invention is not limited thereto, and if the user can not access the robot and can access the mobile terminal, the mobile terminal can perform the function of the robot. For example, the mobile terminal can perform the functions of the robot as it is through communication with the cloud server and / or the administrator terminal. In this case, the mobile terminal can operate independently of the robot.

경우에 따라서, 모바일 단말은 로봇에 의하여 제어될 수 있다. 단계(690)에서 사용자가 로봇에 접근이 불가능한 경우, 로봇은 모바일 단말을 제어할 수 있다. 예를 들어, 단계(691)에서는 로봇은 모바일 단말을 통해 가상 펫에 대응하는 객체가 디스플레이되도록, 모바일 단말을 제어할 수 있다.As the case may be, the mobile terminal can be controlled by the robot. If the user is not able to access the robot in step 690, the robot may control the mobile terminal. For example, in step 691, the robot may control the mobile terminal to display an object corresponding to the virtual pet through the mobile terminal.

도 6에 도시된 각 단계들에는 도 1 내지 도 5를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다. 또한, 도 6은 예시적인 실시예로서, 로봇, 모바일 단말, 클라우드 서버, 및 관리자 단말의 동작을 도 6에 도시된 바로 한정하는 것은 아니다.The steps described in FIG. 1 through FIG. 5 may be applied to each step shown in FIG. 6, so that a detailed description will be omitted. 6 is an exemplary embodiment, and the operation of the robot, the mobile terminal, the cloud server, and the administrator terminal is not limited to that shown in Fig.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (24)

사용자와 상호작용하는 가상 펫을 제공하는 방법에 있어서,
데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계;
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계;
상기 사용자로부터 상호작용 정보를 수신하는 단계; 및
상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 단계;
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
A method for providing a virtual pet interacting with a user,
Identifying, from at least one virtual pet stored in the database, the virtual pet sold separately to the user;
Displaying an object corresponding to the identified virtual pet;
Receiving interaction information from the user; And
Controlling an interaction operation of an object corresponding to the virtual pet in response to the received interaction information;
Wherein the virtual pet is a virtual pet.
제1항에 있어서,
상기 사용자에게 고유의 가상 펫을 분양하는 단계;
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
The method according to claim 1,
Selling virtual pets unique to the user;
Wherein the virtual pet interacts with the user.
제1항에 있어서,
상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 단계
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
The method according to claim 1,
Transmitting the interaction information and information associated with the interaction of the virtual pet to the cloud server
Wherein the virtual pet interacts with the user.
제1항에 있어서,
상기 상호작용 정보로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하는 단계; 및
상기 생성된 이벤트 신호를 관리자 단말로 전송하는 단계;
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
The method according to claim 1,
Generating an event signal corresponding to the predetermined event when a predetermined event is detected from the interaction information; And
Transmitting the generated event signal to an administrator terminal;
Wherein the virtual pet interacts with the user.
제4항에 있어서,
상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하는 단계; 및
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
5. The method of claim 4,
Receiving a management signal for the generated event signal from the administrator terminal; And
Controlling an interaction operation of the virtual pet in response to the management signal
Wherein the virtual pet interacts with the user.
제5항에 있어서,
상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함하는,
사용자와 상호작용하는 가상 펫을 제공하는 방법.
6. The method of claim 5,
Wherein the management signal includes an instruction signal for the user corresponding to the predetermined event,
A method for providing a virtual pet that interacts with a user.
제5항에 있어서,
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계는,
상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환하는 단계,
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
6. The method of claim 5,
Wherein the step of controlling an interaction operation of the virtual pet in response to the management signal comprises:
Converting the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet,
Wherein the virtual pet is a virtual pet.
제1항에 있어서,
상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계는,
얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식하는 단계
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
The method according to claim 1,
The step of identifying virtual pets individually sold to the user,
Recognizing the user based on user information including at least one of face recognition information, iris recognition information, and ID information
Wherein the virtual pet is a virtual pet.
제1항에 있어서,
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계는,
상기 사용자가 로봇에 접근 가능한 경우 상기 로봇을 통해 상기 객체를 디스플레이하는 단계; 및
상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하는 단계
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.
The method according to claim 1,
Wherein displaying the object corresponding to the identified virtual pet comprises:
Displaying the object through the robot when the user is able to access the robot; And
Displaying the object via the mobile terminal when the user is accessible to the mobile terminal
Wherein the virtual pet is a virtual pet.
제1항에 있어서,
상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성하는, 사용자와 상호작용하는 가상 펫을 제공하는 방법.
The method according to claim 1,
Wherein the at least one virtual pet stored in the database forms a virtual social community.
제1항 내지 제10항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a program for executing the method according to any one of claims 1 to 10 is recorded. 사용자와 상호작용하는 가상 펫을 제공하는 로봇에 있어서,
데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 사용자 식별부;
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 디스플레이부; 및
상기 사용자로부터 상호작용 정보를 수신하고, 상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 상호작용부
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.
1. A robot for providing virtual pets interacting with a user,
A user identification unit for identifying, from at least one virtual pet stored in a database, a virtual pet individually sold to the user;
A display unit for displaying an object corresponding to the identified virtual pet; And
An interaction unit for receiving interaction information from the user and controlling an interaction operation of an object corresponding to the virtual pet in response to the received interaction information,
And a virtual pet interacting with the user.
제12항에 있어서,
상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 통신부
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.
13. The method of claim 12,
A communication unit for transmitting the interaction information and the information associated with the interaction operation of the virtual pet to the cloud server;
And a virtual pet that interacts with the user.
제12항에 있어서,
상기 상호작용부는,
상기 상호작용의 결과로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하고,
상기 생성된 이벤트 신호를 관리자 단말로 전송하는 통신부
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.
13. The method of claim 12,
The interaction unit includes:
Generating an event signal corresponding to the predetermined event when a predetermined event is detected from the result of the interaction,
A communication unit for transmitting the generated event signal to the administrator terminal
And a virtual pet that interacts with the user.
제14항에 있어서,
상기 통신부는,
상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하고,
상기 상호작용부는,
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.
15. The method of claim 14,
Wherein,
Receiving a management signal for the generated event signal from the administrator terminal,
The interaction unit includes:
And controlling an interaction operation of the virtual pet in response to the management signal.
A robot that provides virtual pets that interact with users.
제15항에 있어서,
상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.
16. The method of claim 15,
Wherein the management signal includes an instruction signal for the user corresponding to the predetermined event,
A robot that provides virtual pets that interact with users.
제15항에 있어서,
상기 상호작용부는,
상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.
16. The method of claim 15,
The interaction unit includes:
Converting the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet,
A robot that provides virtual pets that interact with users.
제12항에 있어서,
상기 사용자 식별부는,
얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.
13. The method of claim 12,
The user identification unit,
Recognizing the user based on user information including at least one of face identification information, iris recognition information, and ID information,
A robot that provides virtual pets that interact with users.
제12항에 있어서,
상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하도록 상기 모바일 단말을 제어하는 통신부
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.
13. The method of claim 12,
A communication unit for controlling the mobile terminal to display the object through the mobile terminal when the user can access the mobile terminal;
And a virtual pet that interacts with the user.
제12항에 있어서,
상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성하는, 사용자와 상호작용하는 가상 펫을 제공하는 로봇.
13. The method of claim 12,
Wherein the at least one virtual pet stored in the database provides a virtual pet interacting with a user forming a virtual social community.
사용자와 상호작용하는 가상 펫을 제공하는 서버에 있어서,
상기 사용자에게 제공하기 위한 가상 펫을 저장하는 가상 펫 저장부;
상기 사용자로부터 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 수신하는 통신부; 및
상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 저장하여 분석하는 분석부
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 서버.
1. A server for providing virtual pets interacting with a user,
A virtual pet storage unit for storing a virtual pet to be provided to the user;
A communication unit for receiving interaction information from the user and information related to an interaction operation of the virtual pet; And
An analysis unit for storing and analyzing the interaction information and the information associated with the interaction operation,
Wherein the virtual pet interacts with the user.
제21항에 있어서,
상기 분석부는,
상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 분석한 결과에 기초하여, 상기 가상 펫의 동작을 제어하기 위한 제어 신호를 생성하고,
상기 통신부는,
상기 사용자에게 상기 가상 펫이 제공되는 모바일 단말 및 로봇 중 적어도 하나로 상기 제어 신호를 전송하는,
사용자와 상호작용하는 가상 펫을 제공하는 서버.
22. The method of claim 21,
The analyzing unit,
Generating a control signal for controlling the operation of the virtual pet based on a result of analyzing the interaction information and the information associated with the interaction operation,
Wherein,
And transmitting the control signal to at least one of a mobile terminal and a robot provided with the virtual pet,
A server that provides virtual pets that interact with the user.
제21항에 있어서,
상기 분석부는,
상기 상호작용 정보로부터 미리 정한 이벤트가 감지하여 이벤트 신호를 생성하고,
상기 통신부는,
상기 생성된 이벤트 신호를 로봇, 모바일 단말, 및 관리자 단말 중 적어도 하나로 전송하는,
사용자와 상호작용하는 가상 펫을 제공하는 서버.
22. The method of claim 21,
The analyzing unit,
A predetermined event is detected from the interaction information to generate an event signal,
Wherein,
And transmitting the generated event signal to at least one of a robot, a mobile terminal, and an administrator terminal,
A server that provides virtual pets that interact with the user.
제21항에 있어서,
상기 가상 펫 저장부는,
상기 사용자의 상기 가상 펫 및 다른 사용자의 가상 펫이 형성하는 가상 세계를 저장하는,
사용자와 상호작용하는 가상 펫을 제공하는 서버.
22. The method of claim 21,
The virtual pet storage unit stores,
A virtual world formed by the virtual pet of the user and the virtual pet of another user;
A server that provides virtual pets that interact with the user.
KR1020140098532A 2014-07-31 2014-07-31 Robot, server, mobile terminal, and method to provide virtual pet for interacting with user KR20160015803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140098532A KR20160015803A (en) 2014-07-31 2014-07-31 Robot, server, mobile terminal, and method to provide virtual pet for interacting with user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140098532A KR20160015803A (en) 2014-07-31 2014-07-31 Robot, server, mobile terminal, and method to provide virtual pet for interacting with user

Publications (1)

Publication Number Publication Date
KR20160015803A true KR20160015803A (en) 2016-02-15

Family

ID=55356672

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140098532A KR20160015803A (en) 2014-07-31 2014-07-31 Robot, server, mobile terminal, and method to provide virtual pet for interacting with user

Country Status (1)

Country Link
KR (1) KR20160015803A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190124631A (en) 2018-04-26 2019-11-05 제이엔씨 주식회사 Liquid crystal composition and liquid crystal display device
KR20210092051A (en) * 2020-01-15 2021-07-23 주식회사 와이닷츠 Physical substantive cyber robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190124631A (en) 2018-04-26 2019-11-05 제이엔씨 주식회사 Liquid crystal composition and liquid crystal display device
KR20210092051A (en) * 2020-01-15 2021-07-23 주식회사 와이닷츠 Physical substantive cyber robot

Similar Documents

Publication Publication Date Title
US11669156B2 (en) Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality
US20220035903A1 (en) Personalized service operation system and method of smart device and robot using smart mobile device
CN105934227B (en) Audio navigation auxiliary
US20180231653A1 (en) Entity-tracking computing system
JP7203865B2 (en) Multimodal interaction between users, automated assistants, and other computing services
US10369699B2 (en) Executing software applications on a robot
Portugal et al. SocialRobot: An interactive mobile robot for elderly home care
US20150081304A1 (en) System for say-feel gap analysis in video
AU2018202076A1 (en) Activity monitoring of a robot
CN109765991A (en) Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction
US20210272585A1 (en) Server for providing response message on basis of user's voice input and operating method thereof
US10665032B2 (en) Real-time motion feedback for extended reality
KR20180096483A (en) Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
US10816800B2 (en) Electronic device and method of controlling the same
WO2016111414A1 (en) Robot service method and robot apparatus using social network service
KR20160015803A (en) Robot, server, mobile terminal, and method to provide virtual pet for interacting with user
US11074510B2 (en) Embodied cognition platform for use in and control of a device
CN112349285A (en) Method of recognizing voice and electronic device supporting the same
Spinsante et al. Multimodal interaction in a elderly-friendly smart home: a case study
US20210142047A1 (en) Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide
US20200219412A1 (en) System and method for sensor fusion from a plurality of sensors and determination of a responsive action
US11855932B2 (en) Method for adjusting a device behavior based on privacy classes
KR102584745B1 (en) Information exchange device with chatting display
KR102455874B1 (en) Companion animal management system using IoT
Chidzambwa et al. Applying semiotics in configuration of home telecare devices in ambient assisted living environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application