KR20160015803A - Robot, server, mobile terminal, and method to provide virtual pet for interacting with user - Google Patents
Robot, server, mobile terminal, and method to provide virtual pet for interacting with user Download PDFInfo
- Publication number
- KR20160015803A KR20160015803A KR1020140098532A KR20140098532A KR20160015803A KR 20160015803 A KR20160015803 A KR 20160015803A KR 1020140098532 A KR1020140098532 A KR 1020140098532A KR 20140098532 A KR20140098532 A KR 20140098532A KR 20160015803 A KR20160015803 A KR 20160015803A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- virtual pet
- virtual
- interaction
- robot
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/825—Fostering virtual characters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Robotics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Mechanical Engineering (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Toys (AREA)
Abstract
Description
아래 실시예들은 사용자와 상호작용하는 가상 펫을 제공하는 방법, 모바일 단말, 서버 및 로봇에 관한 것이다.The following embodiments are directed to a method of providing a virtual pet that interacts with a user, a mobile terminal, a server, and a robot.
본 발명의 배경이 되는 기술은 다음의 문헌에 개시되어 있다.Techniques that constitute the background of the present invention are disclosed in the following documents.
1) 한국 공개특허공보 제2013-0097988호 (2013.09.04 공개)1) Korean Laid-open Patent Publication No. 2013-0097988 (published on March 31, 2013)
2) 한국 공개특허공보 제2013-0093290호 (2013.08.22 공개)2) Korean Laid-open Patent Publication No. 2013-0093290 (published on Aug. 22, 2013)
로봇은 정해진 프로그램에 따라 일정한 동작 또는 작업을 수행하는 장치를 가리킨다. 종래의 로봇은 자동차, 반도체 등의 제조 분야를 중심으로 발달해왔다. 최근에는 정보통신, 센싱 기술, 음성 인식, 기계 매커니즘, 엔지니어링 기술 등과 같은 다양한 이종 기술과 결합된 융복합형 로봇이 개발되고 있다. 이에 따라, 사용자의 작업을 대신할 수 있는 로봇에 대한 수요가 꾸준히 증가하고 있다.A robot refers to a device that performs a certain operation or task according to a predetermined program. Conventional robots have been developed mainly in the fields of manufacturing automobiles and semiconductors. In recent years, fusion-type robots are being developed in combination with various heterogeneous technologies such as information communication, sensing technology, speech recognition, machine mechanism, and engineering technology. As a result, there is a steady increase in demand for robots that can replace user's work.
오늘날, 시각이나 청각, 촉각 센서와 같은 다양한 센서 정보를 이용하여 감정이나 행동을 생성하거나 선택하여 표현하는 시스템은 애완용 로봇이나 지능형 로봇 형태로 개발되어 있고, 의인화된 감정을 기반으로 더욱 자연스러운 행동 내지 대화를 구현하기 위해 감정 엔진이나 상호작용과 관련된 시스템에 관한 기능 개선 연구가 꾸준히 진행되고 있다.Today, systems that generate or select emotions or behaviors by using various sensor information such as vision, hearing, and tactile sensors are developed in the form of pet robots or intelligent robots. Based on their personalized emotions, There is a steady progress of functional improvement studies on emotion engines and systems related to interaction.
또한, 인간과 로봇의 자연스러운 상호작용을 위해 사용자에 의한 입력과 상태 변화를 감지하기 위한 센서 장치의 기능 개선과 함께 이러한 센서를 이용하여 사용자의 의도를 파악하기 위한 기술 개발이 시도되고 있으며, 로봇 구동 장치에 있어서도 자연스러운 행동을 표현하기 위해 구동기 기술에 대한 다양한 연구가 이루어지고 있다.In addition, in order to naturally interact with human beings and robots, it is attempted to improve the function of the sensor device for detecting the input and the state change by the user, and to develop technology for grasping the intention of the user by using such sensor, Various researches on actuator technology have been conducted to express natural behavior in the device.
다만, 종래의 로봇은 고정된 위치 내지 한정된 위치에서만 동작 가능하기 때문에 사용자가 로봇의 동작 범위를 벗어날 경우, 상호작용이 불가능하다는 단점이 있다. 특히, 실내에서 동작하는 로봇의 경우, 사용자가 실외로 이동하게 되면 사용자는 로봇과 상호작용할 수 없게 된다.However, since the conventional robot can operate only at a fixed position or a limited position, there is a disadvantage in that when the user is out of the robot's operation range, the robot can not interact with the robot. In particular, in the case of a robot operating indoors, when the user moves outdoors, the user can not interact with the robot.
실시예들은 사용자가 가상 펫을 제공하는 로봇에 접근 불가능한 경우에도 모바일 단말을 통해서 사용자와 상호작용하는 가상 펫을 제공할 수 있다.Embodiments can provide a virtual pet that interacts with a user through a mobile terminal even if the user is inaccessible to the robot providing the virtual pet.
또한, 실시예들은 상호작용으로부터 미리 정한 이벤트가 감지되는 경우 관리자에게 알려서 사용자와 관리자가 간접 대화하거나 사용자와 가상 펫이 직접 대화하게 할 수 있다.In addition, the embodiments may notify the manager when a predetermined event is detected from the interaction, so that the user and the manager can indirectly communicate with each other or allow the user and the virtual pets to directly communicate with each other.
더 나아가, 실시예들은 가상펫들이 가상 소셜 커뮤니티를 이루고, 사용자의 요구에 적응하거나 사용자의 요구를 반영하면서 가상 소셜 커뮤니티 내에서 생활하도록 하게 할 수 있다.Furthermore, embodiments may allow virtual pets to form a virtual social community, adapt to a user's needs, or live within a virtual social community, reflecting the needs of the user.
일 측에 따른 사용자와 상호작용하는 가상 펫을 제공하는 방법은, 데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계; 상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계; 상기 사용자로부터 상호작용 정보를 수신하는 단계; 및 상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 단계를 포함한다.A method of providing a virtual pet interacting with a user along a side comprises: identifying, from at least one virtual pet stored in a database, a virtual pet individually sold to the user; Displaying an object corresponding to the identified virtual pet; Receiving interaction information from the user; And controlling an interaction operation of an object corresponding to the virtual pet in response to the received interaction information.
사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 사용자에게 고유의 가상 펫을 분양하는 단계를 더 포함한다.The method of providing a virtual pet interacting with a user further includes distributing a virtual pet unique to the user.
사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 단계를 더 포함한다.The method of providing a virtual pet interacting with a user further comprises transmitting the interaction information and information associated with an interaction operation of the virtual pet to a cloud server.
사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 상호작용 정보로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하는 단계; 및 상기 생성된 이벤트 신호를 관리자 단말로 전송하는 단계를 더 포함한다.A method of providing a virtual pet interacting with a user includes generating an event signal corresponding to the predetermined event when a predetermined event is detected from the interaction information; And transmitting the generated event signal to the administrator terminal.
사용자와 상호작용하는 가상 펫을 제공하는 방법은, 상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하는 단계; 및 상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계를 더 포함한다.A method of providing a virtual pet interacting with a user includes receiving a management signal for the generated event signal from the administrator terminal; And controlling an interaction operation of the virtual pet in response to the management signal.
상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함한다.The management signal includes an instruction signal for the user corresponding to the predetermined event.
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계는, 상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환하는 단계를 포함한다.Wherein the step of controlling the interaction operation of the virtual pet in response to the management signal comprises the steps of: receiving the management signal as at least one of a speech output signal corresponding to the speech of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet .
상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계는, 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식하는 단계를 포함한다.The step of identifying the virtual pets individually distributed to the user includes recognizing the user based on user information including at least one of face recognition information, iris recognition information, and ID information.
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계는, 상기 사용자가 로봇에 접근 가능한 경우 상기 로봇을 통해 상기 객체를 디스플레이하는 단계; 및 상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하는 단계를 포함한다.Wherein displaying the object corresponding to the identified virtual pet comprises: displaying the object through the robot when the user is able to access the robot; And displaying the object via the mobile terminal when the user is accessible to the mobile terminal.
상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성할 수 있다.The at least one virtual pet stored in the database may form a virtual social community.
일 측에 따르면, 사용자와 상호작용하는 가상 펫을 제공하는 로봇은 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 사용자 식별부; 상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 디스플레이부; 및 상기 사용자로부터 상호작용 정보를 수신하고, 상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 상호작용부를 포함한다.According to one aspect of the present invention, a robot providing virtual pets interacting with a user includes: a user identification unit for identifying virtual pets individually sold to the user from at least one virtual pet; A display unit for displaying an object corresponding to the identified virtual pet; And an interaction unit for receiving interaction information from the user and controlling an interaction operation of the object corresponding to the virtual pet in response to the received interaction information.
로봇은 상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 통신부를 더 포함한다.The robot further includes a communication unit for transmitting the interaction information and the information associated with the interaction operation of the virtual pet to the cloud server.
상기 상호작용부는, 상기 상호작용의 결과로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하고, 로봇은 상기 생성된 이벤트 신호를 관리자 단말로 전송하는 통신부를 더 포함한다.The interaction unit may further include a communication unit that generates an event signal corresponding to the predetermined event when a predetermined event is detected from the result of the interaction, and the robot transmits the generated event signal to the administrator terminal.
상기 통신부는, 상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하고, 상기 상호작용부는, 상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어한다.The communication unit receives a management signal for the generated event signal from the administrator terminal, and the interaction unit controls an interaction operation of the virtual pet in response to the management signal.
상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함한다.The management signal includes an instruction signal for the user corresponding to the predetermined event.
상기 상호작용부는, 상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환한다.The interaction unit converts the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet.
상기 사용자 식별부는, 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식한다.The user identification unit recognizes the user based on user information including at least one of face identification information, iris recognition information, and ID information.
로봇은 상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하도록 상기 모바일 단말을 제어하는 통신부를 더 포함한다.The robot further includes a communication unit for controlling the mobile terminal to display the object through the mobile terminal when the user is able to access the mobile terminal.
상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성할 수 있다.The at least one virtual pet stored in the database may form a virtual social community.
일 측에 따르면, 사용자와 상호작용하는 가상 펫을 제공하는 서버는 상기 사용자에게 제공하기 위한 가상 펫을 저장하는 가상 펫 저장부; 상기 사용자로부터 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 수신하는 통신부; 및 상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 저장하여 분석하는 분석부를 포함한다.According to one aspect of the present invention, a server for providing a virtual pet interacting with a user includes: a virtual pet storage unit for storing virtual pets to be provided to the user; A communication unit for receiving interaction information from the user and information related to an interaction operation of the virtual pet; And an analysis unit for storing and analyzing the interaction information and the information associated with the interaction operation.
상기 분석부는, 상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 분석한 결과에 기초하여, 상기 가상 펫의 동작을 제어하기 위한 제어 신호를 생성하고, 상기 통신부는, 상기 사용자에게 상기 가상 펫이 제공되는 모바일 단말 및 로봇 중 적어도 하나로 상기 제어 신호를 전송한다.Wherein the analyzing unit generates a control signal for controlling the operation of the virtual pet based on a result of analyzing the interaction information and the information related to the interaction operation, And transmits the control signal to at least one of the provided mobile terminal and the robot.
상기 분석부는, 상기 상호작용 정보로부터 미리 정한 이벤트가 감지하여 이벤트 신호를 생성하고, 상기 통신부는, 상기 생성된 이벤트 신호를 로봇, 모바일 단말, 및 관리자 단말 중 적어도 하나로 전송한다.The analyzing unit detects an event predetermined from the interaction information to generate an event signal, and the communication unit transmits the generated event signal to at least one of a robot, a mobile terminal, and an administrator terminal.
상기 가상 펫 저장부는, 상기 사용자의 상기 가상 펫 및 다른 사용자의 가상 펫이 형성하는 가상 세계를 저장한다.The virtual pet storage unit stores a virtual world formed by the virtual pet of the user and the virtual pet of another user.
실시예들은 사용자가 가상 펫을 제공하는 로봇에 접근 불가능한 경우에도 모바일 단말을 통해서 사용자와 상호작용하는 가상 펫을 제공함으로써, 언제나 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.Embodiments can induce a user to have psychological stability and emotional stability at any time by providing virtual pets that interact with a user through a mobile terminal even when the user is unable to access the robot providing the virtual pets.
또한, 실시예들은 미리 정한 이벤트가 감지되는 경우 사용자와 관리자가 간접 대화하거나 사용자와 가상 펫이 직접 대화하게 함으로써 돌발 상황에서도 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.Embodiments can induce a user to have a psychological stability and an emotional stability even in an unexpected situation by indirect conversation between a user and a manager when a predetermined event is detected or by letting a user and a virtual pet directly communicate with each other.
더 나아가, 실시예들은 사용자가 실제 공간에서 부족한 부분에 대해 가상펫의 가상 소셜 커뮤니티로부터 대리만족을 얻게 함으로써 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.Furthermore, the embodiments may induce a user to have psychological stability and emotional stability by acquiring surrogate satisfaction from the virtual social community of the virtual pet for a portion of the user that is lacking in actual space.
도 1은 일 실시예에 사용자에게 심리적 안정감을 주기 위한 가상 펫을 제공하는 시스템을 설명하는 도면.
도 2는 일 실시예에 따른 로봇의 세부적인 구성을 설명하는 블럭도.
도 3은 일 실시예에 따른 모바일 단말의 세부적인 구성을 설명하는 블럭도.
도 4는 일 실시예에 따른 클라우드 서버의 세부적인 구성을 설명하는 블럭도.
도 5는 일 실시예에 따른 관리자 단말의 세부적인 구성을 설명하는 블럭도.
도 6은 일 실시예에 따른 사용자와 상호작용하는 가상 펫을 제공하는 방법을 나타내는 동작 흐름도.FIG. 1 is a diagram illustrating a system for providing a virtual pet for giving psychological stability to a user in an embodiment. FIG.
2 is a block diagram illustrating a detailed configuration of a robot according to an embodiment;
3 is a block diagram illustrating a detailed configuration of a mobile terminal according to an embodiment;
4 is a block diagram illustrating a detailed configuration of a cloud server according to an embodiment;
5 is a block diagram illustrating a detailed configuration of an administrator terminal according to an exemplary embodiment;
6 is an operational flow diagram illustrating a method of providing a virtual pet that interacts with a user according to an embodiment;
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 사용자에게 심리적 안정감을 주기 위한 가상 펫을 제공하는 시스템(100)을 설명하는 도면이다.FIG. 1 is a diagram for explaining a
가상 펫을 제공하는 시스템(100)은 로봇(110), 모바일 단말(120), 클라우드 서버(130), 및 관리자 단말(140)을 포함할 수 있다.The
로봇(110)은 사용자에게 가상 펫 및 가상 펫과 연관된 서비스를 제공할 수 있다. 일 실시예에 따르면, 로봇(110)은 공용 시설에서 여러 사용자에게 공통적으로 제공되는 장치로서, 적어도 하나의 가상 펫을 제공할 수 있다. 예를 들어, 공용 시설은 유치원, 학교, 보육시설, 양로원, 및 요양원 등을 포함할 수 있다.The
여기서, 가상 펫은 의인화된 가상의 펫(AVP, Anthropomorphized Virtual Pet) 캐릭터로서, 각각의 사용자 별로 고유한 캐릭터가 분양될 수 있다. 예를 들어, 각 사용자에게 유일하도록 맞춤형으로 분양된 가상 펫은 클라우드 서버(130)에서 구현되는 가상 세계 및 현실세계를 연결하는 매개체 역할을 수행할 수 있다.Here, the virtual pet is an anthropomorphized virtual pet (AVP) character, and a character unique to each user can be sold. For example, a virtual pet that is customized and sold to each user can serve as a medium connecting the virtual world realized in the
예를 들어, 로봇(110)은 일반적인 형태 또는 동일한 형태로 제작될 수 있다. 다만, 로봇(110)은 사용자를 인식(예를 들어, 얼굴 인식, 홍채 인식 등의 다양한 인식 방식 가능)하여 로봇(110)의 디스플레이 상에 사용자 별로 고유한 가상 펫을 디스플레이할 수 있다. 로봇(110)의 구체적인 구성은 하기 도 2에서 상세히 설명한다.For example, the
다른 일 실시예에 따르면, 로봇(110)의 캐릭터가 획일화될 경우 발생할 수 있는 이질감을 감소시키기 위해, 다양하게 캐릭터화 된 로봇(110)이 사용자의 요구 및 취향에 맞게 맞춤형 내지 주문형으로 개발될 수 있다. 다양하게 캐릭터화된 로봇(110)은 각 사용자에게 분양 내지 분배될 수 있다.According to another embodiment, in order to reduce the sense of heterogeneity that may occur when the character of the
모바일 단말(120)은 사용자가 로봇(110)에 접근할 수 없는 경우, 사용자에게 분양된 가상 펫을 디스플레이할 수 있다. 예를 들어, 모바일 단말(120)은 등록된 사용자에게 분양된 가상 펫을 저장할 수 있다. 여기서, 모바일 단말(120)은 특정 사용자에게 고유하게 분양된 가상 펫을 저장할 수 있으며, 예를 들어, 별도의 칩을 모바일 단말(120) 내에 장착할 수 있다. 모바일 단말(120)은 예를 들어, 스마트폰, 태블릿PC 등을 포함할 수 있다. 모바일 단말(120)의 구체적인 구성은 하기도 3에서 상세히 설명한다.If the user can not access the
예를 들어, 가상 펫은 사용자가 로봇(110)에 접근 가능한 경우에는 로봇(110)을 통해서 사용자와 상호작용할 수 있다. 사용자가 로봇(110)에 접근이 불가능하고 모바일 단말(120)에 접근 가능한 경우에는, 가상 펫은 모바일 단말(120)을 통해 사용자와 상호작용할 수 있다. 이로 인하여, 사용자는 언제나 가상 펫과 상호작용할 수 있다. For example, the virtual pet may interact with the user through the
여기서, 상호작용은 사람과 가상 펫 간에 교환되는 일련의 대화 내지 행동 등의 동작을 포함하는 것으로서, 예를 들면, 사용자가 가상 펫과 나누는 대화 등을 포함할 수 있다.Here, the interaction includes an action such as a series of conversations or actions exchanged between a person and a virtual pet, and may include, for example, a conversation that the user shares with a virtual pet.
사용자가 로봇(110)에 접근 가능한 경우는 사용자가 로봇(110)과 직접 상호작용할 수 있는 상태를 나타낼 수 있고, 로봇(110)에 접근 불가능한 경우는 사용자가 로봇(110)과 직접적인 상호작용이 불가능한 상태를 나타낼 수 있다. 사용자가 모바일 단말(120)에 접근 가능한 경우는 사용자가 로봇(110)에 접근 불가능하면서 모바일 단말(120)과 직접적으로 상호작용할 수 있는 상태를 나타낼 수 있다.When the user can access the
클라우드 서버(130)는 각 사용자에게 분양된 적어도 하나의 가상 펫과 관련된 정보를 저장할 수 있다. 예를 들어, 클라우드 서버(130)는 사용자에게 분양된 가상 펫들이 클라우드 서버(130) 내에서 형성하는 가상 소셜 커뮤니티(Virtual Social Community)를 및 가상 세계를 저장할 수 있다. 클라우드 서버(130)의 구체적인 구성은 하기 도 4에서 상세히 설명한다.The
여기서, 가상 소셜 커뮤니티는 사용자의 가상 펫 및 다른 사용자의 가상 펫이 상호작용하는 공간을 나타낼 수 있다. 가상 세계는 가상 펫들이 가상 소셜 커뮤니티에서 구현한 임의의 가상 세계로서, 가상적으로 구현되는 영화 속 세계 내지 동화 속 세계 등을 포함할 수 있다. 사용자는 가상 펫을 통해 가상 세계 속의 주인공을 간접 체험할 수 있고, 가상 세계의 삶을 느낄 수 있다. 예를 들어, 여러 사용자들이 만든 가상 펫은 가상 세계의 일원이 될 수 있고, 사용자는 사용자의 가상 펫 또는 사용자 자신을 해당 가상세계의 주인공으로서 인식할 수 있다.Here, the virtual social community can represent a space where a user's virtual pet and another user's virtual pet interact with each other. A virtual world is any virtual world that virtual pets have implemented in a virtual social community, and may include a virtual world in a movie or a fairy tale world. The user can indirectly experience the hero in the virtual world through virtual pets, and feel the life of the virtual world. For example, a virtual pet created by a plurality of users can be a member of a virtual world, and a user can recognize the user's virtual pet or the user himself as a protagonist of the virtual world.
일 실시예에 따르면, 가상 펫을 제공하는 시스템(100)은 가상펫들이 가상 소셜 커뮤니티를 이루고, 사용자의 요구에 적응하거나 사용자의 요구를 반영하면서 가상 소셜 커뮤니티 내에서 생활하도록 하게 할 수 있다. 이를 통해 사용자는 실제 공간에서 부족한 부분을 가상펫의 가상 소셜 커뮤니티로부터 충족 받음으로써 대리만족을 얻게 되므로, 가상 펫을 제공하는 시스템(100)은 사용자가 심리적 안정감 및 정서적 안정감을 갖도록 유도할 수 있다.According to one embodiment, the
또한, 클라우드 서버(130)는 상호작용 정보에 기초하여 로봇(110) 및 모바일 단말(120)의 상호작용 동작을 제어할 수 있다. 클라우드 서버(130)는 상호작용 정보로부터 미리 정한 이벤트가 감지되는 경우, 관리자에게 해당 이벤트의 발생 여부를 알릴 수 있다.In addition, the
이 때, 미리 정한 이벤트는 사용자에게 발생하는 비정상적이거나 돌발적인 상황일 수 있으며, 예를 들면, 사용자의 대화나 행동이 과도한 흥분상태에 있거나 사고를 당하여 다치는 상황 등을 나타낼 수 있다.In this case, the predetermined event may be an abnormal or unexpected situation that occurs to the user, and may indicate, for example, a situation where the user's conversation or action is in an excessive excitement state or is injured by an accident.
관리자 단말(140)은 관리자가 로봇(110) 및 모바일 단말(120)을 관리하기 위한 단말을 나타낼 수 있다. 관리자는 보호자, 학부모, 교사, 및 의사 등을 포함할 수 있다. 관리자 단말(140)은 로봇(110) 및 모바일 단말(120)에서 제공되는 가상 펫과 사용자 간의 상호작용을 모니터링할 수 있고, 상호작용 중 발생하는 미리 정한 이벤트에 대해 관리 신호를 생성하여 로봇(110) 및 모바일 단말(120)로 전송할 수 있다. 관리자 단말(140)의 구체적인 구성은 하기 도 5에서 상세히 설명한다.The
관리자는 미리 정한 이벤트(예를 들어, 사용자가 다친 상황)가 발생한 경우, 해당 이벤트에 대응한 관리 신호(예를 들어, 사용자를 안심시키는 대화 내용)를 로봇(110) 및 모바일 단말(120)로 전송함으로써, 사용자의 심리적 안정감을 유도할 수 있다.
When a predetermined event (for example, a situation in which a user is injured) occurs, the manager sends a management signal (for example, a conversation content for reassuring the user) corresponding to the event to the
도 2는 일 실시예에 따른 로봇(110)의 세부적인 구성을 설명하는 블럭도이다.2 is a block diagram illustrating the detailed configuration of the
사용자와 상호작용하는 가상 펫을 제공하는 로봇(110)은 사용자 식별부(210), 디스플레이부(220), 상호작용부(230) 및 통신부(240)를 포함할 수 있다.The
사용자 식별부(210)는 데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 사용자에게 개별적으로 분양된 가상 펫을 식별할 수 있다. 데이터베이스는 로봇(110)에 포함되거나, 원격의 서버에 포함될 수 있다. 로봇(110)은 데이터베이스와 유무선으로 연결될 수 있고, 인터넷 등 네트워크를 통하여 연결될 수 있다. 데이터베이스는 적어도 하나의 가상 펫을 저장한다. 데이터베이스에 저장된 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성할 수 있다.The
또한, 사용자 식별부(210)는 사람들과 생활하던 중 특정 사람을 인식하거나 특정 사람과 상호작용이 필요한 지 여부 등을 식별할 수 있다. 사용자 식별부(210)는 인식된 사용자에 대응하는 가상 펫을 식별할 수 있다. 사용자 식별부(210)는, 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 사용자를 인식할 수 있다. 예를 들어, 사용자 식별부(210)는 카메라를 통한 얼굴 인식 및 홍채 인식, 마이크를 통한 음성 인식 등에 기초하여 사용자를 인식할 수 있다.In addition, the
디스플레이부(220)는 식별된 가상 펫에 대응하는 객체를 디스플레이할 수 있다. 가상 펫에 대응하는 객체는 각 사용자마다 2D 또는 3D의 고유한 캐릭터 형태로 디스플레이될 수 있다. 가상 펫에 대응하는 객체는 감정 표현이 가능할 수 있다. 여기서, 디스플레이부(220)는 가상 펫이 상호작용부(230)가 결정한 상호작용 동작을 수행하도록 객체를 디스플레이할 수 있다.The
상호작용부(230)는 사용자로부터 상호작용 정보를 수신하고, 수신된 상호작용 정보에 응답하여, 가상 펫에 대응하는 객체의 상호작용 동작을 제어할 수 있다. 예를 들어, 사용자로부터 수신된 상호작용 정보는, 사용자가 가상 펫과 상호작용하기 위한 사용자의 동작과 관련된 정보로서, 사용자의 음성, 사용자의 영상 등을 포함할 수 있다. 여기서, 상호작용부(230)는 가상 펫에 대응하는 객체의 상호작용이 시각적으로 표현되어야 하는 경우, 해당 상호작용 동작에 대응하는 객체의 영상을 디스플레이부(220)를 통해 디스플레이하고, 청각적으로 표현되어야 하는 경우 해당 상호작용 동작에 대응하는 객체의 음성을 출력할 수 있다.The
객체의 상호작용 동작은 상호작용 정보에 응답하여 결정된 가상 펫의 동작으로서, 상호작용부(230)에 의해 직접 결정되거나 클라우드 서버에 의해 결정될 수 있다. 예를 들어, 상호작용을 대화로 가정하는 경우, 로봇(110)은 사용자와의 자체적으로 저장하고 있는 정보로부터 대화에 필요한 정보를 추출하거나, 클라우드 서버에서 추론된 정보로부터 대화에 필요한 정보를 추출할 수 있다. 추출된 정보에 기초하여 상호작용부(230)가 가상 펫의 상호작용 동작을 결정할 수 있다.The interaction operation of the object may be determined directly by the
통신부(240)는 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송할 수 있다. 통신부(240)는 상호작용 정보 및 상호작용 동작과 연관된 정보를 그대로 또는 압축해서 클라우드 서버로 전송할 수 있다. 예를 들어, 상호작용을 대화로 가정하는 경우, 통신부(240)는 사용자와 로봇(110) 간의 대화 내용을 전체 또는 요약해서 클라우드 서버로 전송할 수 있다.The
또한, 상호작용부(230)는, 상호작용의 결과로부터 미리 정한 이벤트가 감지되면, 미리 정한 이벤트에 대응하는 이벤트 신호를 생성할 수 있다. 통신부(240)가 생성된 이벤트 신호를 관리자 단말로 전송할 수 있다. 통신부(240)는, 관리자 단말로부터 생성된 이벤트 신호에 대한 관리 신호를 수신하고, 상호작용부(230)는, 관리 신호에 응답하여 가상 펫의 상호작용 동작을 제어할 수 있다. 여기서, 관리 신호는 미리 정한 이벤트에 대응하여 사용자에 대한 지시 신호를 포함할 수 있다. 구체적으로 지시 신호는 해당 이벤트에 대하여 사용자에게 심리적 안정을 유도하기 위해 가상 펫의 상호작용 동작을 제어하기 위한 신호를 나타낼 수 있다. 이 경우, 상호작용부(230)는, 관리 신호를 가상 펫의 음성에 대응하는 음성 출력 신호 및 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환할 수 있다.Further, when a predetermined event is detected from the result of the interaction, the
다른 일 실시예에 따르면, 통신부(240)는 사용자가 모바일 단말에 접근 가능한 경우 모바일 단말을 통해 객체를 디스플레이하도록 모바일 단말을 제어할 수 있다. 모바일 단말의 구체적인 동작은 하기 도 3에서 상세히 설명한다.
According to another embodiment, the
도 3은 일 실시예에 따른 모바일 단말(120)의 세부적인 구성을 설명하는 블럭도이다.3 is a block diagram illustrating a detailed configuration of a
모바일 단말(120)은 디스플레이부(310), 처리부(320) 및 통신부(330)를 포함할 수 있다.The
디스플레이부(310)는 처리부(320)의 제어에 따라 가상 펫에 대응하는 객체를 디스플레이할 수 있다.The
처리부(320)는 가상 펫에 대응하는 객체의 상호작용 동작을 제어할 수 있다. 예를 들어, 처리부(320)는 사용자가 로봇에 접근 불가능하고, 모바일 단말(120)에 접근 가능한 경우, 모바일 단말(120)이 사용자에게 가상 펫을 제공하도록 제어할 수 있다. 예를 들어, 처리부(320)는 사용자에게 개별적으로 분양된 가상 펫을 식별하여, 대응하는 객체를 디스플레이하고, 수신된 상호작용 정보에 응답하여 객체의 상호작용 동작을 제어할 수 있다.The
또한, 처리부(320)는 로봇(110)에게 사용자가 접근 불가능한 경우, 로봇(110)의 사용자 식별부(210) 및 상호작용부(230)와 유사한 동작을 수행할 수 있다. 예를 들어, 처리부(320)는 사용자가 로봇(110)에 접근 불가능한 경우, 모바일 단말(120)이 사용자와 상호작용하도록 제어할 수 있고, 대화 내용, 행동, 소리 등 다양한 상황에 따라, 미리 정한 이벤트가 감지되면(예를 들어, 클라우드 서버가 감지), 해당 이벤트에 대응하는 이벤트 신호를 관리자 단말(140)로 전송할 수 있다.The
통신부(330)는 사용자로부터 수신한 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송할 수 있다. 예를 들어, 통신부(330)는 모바일 단말(120) 상의 가상 펫과의 대화, 행동 등을 로봇을 거치거나 직접 클라우드 서버로 전송할 수 있다. 여기서, 가상 펫과의 대화 및 행동은 전체가 전송되거나 압축되어 전송될 수 있다.
The
도 4는 일 실시예에 따른 클라우드 서버(130)의 세부적인 구성을 설명하는 블럭도이다.4 is a block diagram illustrating a detailed configuration of the
사용자와 상호작용하는 가상 펫을 제공하는 서버는 가상 펫 저장부(410), 통신부(420), 및 분석부(430)를 포함할 수 있다. 여기서, 서버는 클라우드 서버(130)를 포함할 수 있다.A server for providing a virtual pet that interacts with a user may include a virtual
가상 펫 저장부(410)는 가상 소셜 커뮤니티를 형성하는 가상 펫을 사용자에게 제공하기 위해 저장할 수 있다. 또한, 가상 펫 저장부(410)는, 사용자의 가상 펫 및 다른 사용자의 가상 펫이 형성하는 가상 세계를 저장할 수 있다. 여기서, 가상 소셜 커뮤니티는 사용자의 가상 펫 및 다른 사용자의 가상 펫이 상호작용하는 가상적인 공간을 나타낼 수 있고, 가상 세계는 가상 펫에 의해 가상적으로 형성될 수 있다.The virtual
통신부(420)는 사용자로부터 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 수신할 수 있다.The
분석부(430)는 상호작용 정보 및 상호작용 동작과 연관된 정보를 저장하여 분석할 수 있다. 여기서 분석부(430)는 빅데이터 및 상황인지추론모듈을 포함할 수 있다. 일 실시예에 따르면 분석부(430)가, 통신부(420)에 의해 수신된 상호작용 정보 및 상호작용 동작과 연관된 정보를 분석한 결과에 기초하여, 가상 펫의 동작을 제어하기 위한 제어 신호를 생성할 수 있다. 통신부(420)는, 사용자에게 가상 펫이 제공되는 모바일 단말 및 로봇 중 적어도 하나로 제어 신호를 전송할 수 있다. 제어 신호는 가상 펫의 상호작용 동작을 제어하기 위한 신호를 나타낼 수 있다.The
또한, 분석부(430)는, 상호작용 정보로부터 미리 정한 이벤트가 감지하여 이벤트 신호를 생성할 수 있고, 통신부(420)는, 생성된 이벤트 신호를 로봇, 모바일 단말, 및 관리자 단말 중 적어도 하나로 전송할 수 있다. 이벤트 신호가 로봇 및 모바일 단말로 전송되는 경우, 로봇 및 모바일은 해당 이벤트에 대해 미리 정해진 상호작용 동작을 수행할 수 있다. 이벤트 신호가 관리자 단말로 전송되는 경우, 관리자는 해당 이벤트에 대응하는 관리 신호를 관리자가 직접 입력할 수 있다.The
여기서, 이벤트에 따라서는 바로 클라우드 서버(130)가 자체적으로 판단하여 사용자에게 제어 신호를 피드백할 수 있다. 미리 정한 이벤트로 인식하기에 모호하거나, 불확실한 경우에는 해당 이벤트에 대응하는 내용을 관리자 단말로 전송하여 관리자가 이상 상태(예를 들어, 위험 상황 내지 사고 상황)와 연관된 이벤트인지 확인하게 할 수 있다.In this case, the
또한, 클라우드 서버(130)의 분석부(430)는 사용자와 관련하여 특이한 상황이 인지되거나 추론되면 그 상황을 분석하여, 미리 정한 이벤트에 대응하는 이벤트 신호를 생성할 수 있다. 생성된 이벤트 신호는 통신부(420)를 통해 관리자(예를 들어, 보호자, 학부모, 선생님, 친구, 전담상담원 등)에게 전송되거나, 로봇 및 모바일 단말에게 전송될 수 있다. 이벤트 신호를 수신한 관리자는 가상 펫을 통해서 사용자와 간접 대화를 할 수 있다. 또한, 이벤트 신호를 수신한 로봇 및 모바일 단말은 사용자와 직접 대화할 수 있다. 상술한 과정을 통해 사용자와 상호작용하는 가상 펫을 제공하는 서버는 사용자(예를 들어, 어린이 및 노약자)가 심리적 안정감 내지 정신적 안정감을 갖도록 유도할 수 있다.In addition, the
일 실시예에 따르면, 로봇에서 제공되는 가상 펫 또는 모바일 단말에서 제공되는 가상 펫과 사용자는 상호작용할 수 있고, 상호작용하는 과정의 모든 내용은 간략화되어 클라우드 서버(130)의 분석부(430)에 전송되어 저장될 수 있다.
According to an embodiment, the virtual pets provided by the robot or the virtual pets provided by the mobile terminal can interact with each other and all the contents of the interaction process are simplified and transmitted to the
도 5는 일 실시예에 따른 관리자 단말(140)의 세부적인 구성을 설명하는 블럭도이다.5 is a block diagram illustrating a detailed configuration of the
관리자 단말(140)은 관리자 입력부(510), 처리부(520) 및 통신부(530)를 포함할 수 있다.The
관리자 입력부(510)는 관리자가 사용자에게 전달하고자 하는 지시 말 등을 입력받을 수 있다. 예를 들어, 관리자는 보호자로서, 관리자 단말(140)의 통신부(530)를 통해 지시, 말 등을 포함하는 관리 신호를 로봇 또는 모바일 단말의 가상 펫을 통해 사용자에게 전달할 수 있다.The
통신부(530)는 모바일 단말, 로봇 및 클라우드 서버로부터 미리 정한 이벤트에 대응하는 이벤트 신호를 수신할 수 있다. 또한, 통신부(530)는 모바일 단말, 로봇 및 클라우드 서버로부터 사용자의 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 수신할 수 있다.The
처리부(520)는 관리자 입력부(510)를 통해 입력된 관리자의 지시 및 말 등을 관리 신호로 변환할 수 있다. 또한, 처리부(520)는 관리 신호를 음성 변조, 로봇의 행동 등으로 변환할 수 있다. 변환된 관리 신호는 통신부(530)를 통해 로봇 또는 모바일 단말로 전달될 수 있다. 이를 통해, 사용자는 관리 신호를 관리자의 대응이 아닌 로봇의 대응으로 인식할 수 있다.
The
도 6은 일 실시예에 따른 사용자와 상호작용하는 가상 펫을 제공하는 방법을 나타내는 동작 흐름도이다.6 is an operational flow diagram illustrating a method for providing a virtual pet that interacts with a user according to one embodiment.
일 실시예에 따르면, 사용자에게 고유의 가상 펫이 미리 분양될 수 있다. 사용자는 로봇, 모바일 단말 등을 통해 고유의 가상 펫을 분양받을 수 있고, 분양된 가상 펫은 사용자와 매칭되어 클라우드 서버에 등록될 수 있다.According to one embodiment, a virtual pet unique to a user can be pre-sold. The user can receive a unique virtual pet through a robot, a mobile terminal, etc., and the sold virtual pet can be registered with the cloud server by matching with the user.
우선, 단계(610)에서 로봇은 사용자를 인식할 수 있다. 예를 들어, 로봇은 가상 소셜 커뮤니티를 형성하는 적어도 하나의 가상 펫으로부터, 사용자에게 개별적으로 분양된 가상 펫을 식별할 수 있다. 예를 들어, 로봇은 얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 사용자를 인식할 수 있다.First, in
그리고 단계(620)에서 로봇은 가상 펫을 디스플레이할 수 있다. 로봇은 사용자에게 고유하게 식별되는 가상 펫에 대응하는 객체를 디스플레이할 수 있다.In
이어서 단계(630)에서 로봇은 상호작용 정보를 클라우드 서버로 전송할 수 있다. 로봇은 사용자로부터 상호작용 정보를 수신할 수 있다. 로봇은 수신된 상호작용 정보 및 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송할 수 있다. 가상 펫의 상호작용 동작이 클라우드 서버에 의해 결정된 경우에는, 로봇이 상호작용 동작과 연관된 정보는 전송하지 않을 수도 있다.Then, in
다만, 이로 한정하는 것은 아니고, 로봇은 관리자 단말로 직접 상호작용 정보를 전달할 수도 있다.However, the present invention is not limited to this, and the robot may directly transmit the interaction information to the administrator terminal.
그리고 단계(640)에서 클라우드 서버는 상호작용 정보를 분석할 수 있다. 클라우드 서버는 상호작용 정보를 분석하여, 그에 대응하는 가상 펫의 상호작용 동작을 결정하거나, 상호작용 정보로부터 미리 정한 이벤트가 발생했는지 여부를 판단할 수 있다. 다만, 이로 한정하는 것은 아니고, 로봇, 모바일 단말 및 관리자 단말도 상호작용 정보를 분석할 수 있다.In
이어서 단계(650)에서 클라우드 서버는 상호작용 동작을 제어할 수 있다. 클라우드 서버는 수신된 상호작용 정보에 응답하여, 가상 펫에 대응하는 객체의 상호작용 동작을 제어할 수 있다. 다만, 이로 한정하는 것은 아니고, 로봇이 직접 상호작용 정보를 분석하여, 가상 펫의 상호작용 동작을 제어할 수 있다.The cloud server can then control the interaction operation at
그리고 단계(660)에서 클라우드 서버는 이벤트 신호를 관리자 단말로 전송할 수 있다. 클라우드 서버는 상호작용 정보로부터 미리 정한 이벤트가 감지되면, 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하여, 생성된 이벤트 신호를 관리자 단말로 전송할 수 있다. 다만, 이로 한정하는 것은 아니고, 로봇 및 모바일 단말이 직접 미리 정한 이벤트를 감지하여 이벤트 신호를 관리자 단말로 전송할 수도 있다.In
이어서 단계(670)에서 관리자 단말은 관리 신호를 생성할 수 있다. 여기서, 관리 신호는 미리 정한 이벤트에 대응하여 사용자에 대한 지시 신호를 포함할 수 있다.In
그리고 단계(680)에서 관리자 단말은 관리 신호를 로봇으로 전송할 수 있다. 로봇은 관리자 단말로부터 생성된 이벤트 신호에 대한 관리 신호를 수신할 수 있고, 관리 신호에 응답하여 가상 펫의 상호작용 동작을 제어할 수 있다. 여기서, 로봇, 모바일 단말, 클라우드 서버 및 관리자 단말은 관리 신호를 가상 펫의 음성에 대응하는 음성 출력 신호 및 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환할 수 있다.In
다만, 이로 한정하는 것은 아니고, 사용자가 로봇에 접근 불가능하고 모바일 단말에 접근 가능한 경우, 모바일 단말은 로봇의 기능을 수행할 수 있다. 예를 들어, 모바일 단말은 클라우드 서버 및/또는 관리자 단말과의 통신을 통하여 전술한 로봇의 기능을 그대로 수행할 수 있다. 이 경우, 모바일 단말은 로봇과 독립적으로 동작할 수 있다.However, the present invention is not limited thereto, and if the user can not access the robot and can access the mobile terminal, the mobile terminal can perform the function of the robot. For example, the mobile terminal can perform the functions of the robot as it is through communication with the cloud server and / or the administrator terminal. In this case, the mobile terminal can operate independently of the robot.
경우에 따라서, 모바일 단말은 로봇에 의하여 제어될 수 있다. 단계(690)에서 사용자가 로봇에 접근이 불가능한 경우, 로봇은 모바일 단말을 제어할 수 있다. 예를 들어, 단계(691)에서는 로봇은 모바일 단말을 통해 가상 펫에 대응하는 객체가 디스플레이되도록, 모바일 단말을 제어할 수 있다.As the case may be, the mobile terminal can be controlled by the robot. If the user is not able to access the robot in
도 6에 도시된 각 단계들에는 도 1 내지 도 5를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다. 또한, 도 6은 예시적인 실시예로서, 로봇, 모바일 단말, 클라우드 서버, 및 관리자 단말의 동작을 도 6에 도시된 바로 한정하는 것은 아니다.The steps described in FIG. 1 through FIG. 5 may be applied to each step shown in FIG. 6, so that a detailed description will be omitted. 6 is an exemplary embodiment, and the operation of the robot, the mobile terminal, the cloud server, and the administrator terminal is not limited to that shown in Fig.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (24)
데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계;
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계;
상기 사용자로부터 상호작용 정보를 수신하는 단계; 및
상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 단계;
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.A method for providing a virtual pet interacting with a user,
Identifying, from at least one virtual pet stored in the database, the virtual pet sold separately to the user;
Displaying an object corresponding to the identified virtual pet;
Receiving interaction information from the user; And
Controlling an interaction operation of an object corresponding to the virtual pet in response to the received interaction information;
Wherein the virtual pet is a virtual pet.
상기 사용자에게 고유의 가상 펫을 분양하는 단계;
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.The method according to claim 1,
Selling virtual pets unique to the user;
Wherein the virtual pet interacts with the user.
상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 단계
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.The method according to claim 1,
Transmitting the interaction information and information associated with the interaction of the virtual pet to the cloud server
Wherein the virtual pet interacts with the user.
상기 상호작용 정보로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하는 단계; 및
상기 생성된 이벤트 신호를 관리자 단말로 전송하는 단계;
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.The method according to claim 1,
Generating an event signal corresponding to the predetermined event when a predetermined event is detected from the interaction information; And
Transmitting the generated event signal to an administrator terminal;
Wherein the virtual pet interacts with the user.
상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하는 단계; 및
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.5. The method of claim 4,
Receiving a management signal for the generated event signal from the administrator terminal; And
Controlling an interaction operation of the virtual pet in response to the management signal
Wherein the virtual pet interacts with the user.
상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함하는,
사용자와 상호작용하는 가상 펫을 제공하는 방법.6. The method of claim 5,
Wherein the management signal includes an instruction signal for the user corresponding to the predetermined event,
A method for providing a virtual pet that interacts with a user.
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는 단계는,
상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환하는 단계,
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.6. The method of claim 5,
Wherein the step of controlling an interaction operation of the virtual pet in response to the management signal comprises:
Converting the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet,
Wherein the virtual pet is a virtual pet.
상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 단계는,
얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식하는 단계
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.The method according to claim 1,
The step of identifying virtual pets individually sold to the user,
Recognizing the user based on user information including at least one of face recognition information, iris recognition information, and ID information
Wherein the virtual pet is a virtual pet.
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 단계는,
상기 사용자가 로봇에 접근 가능한 경우 상기 로봇을 통해 상기 객체를 디스플레이하는 단계; 및
상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하는 단계
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 방법.The method according to claim 1,
Wherein displaying the object corresponding to the identified virtual pet comprises:
Displaying the object through the robot when the user is able to access the robot; And
Displaying the object via the mobile terminal when the user is accessible to the mobile terminal
Wherein the virtual pet is a virtual pet.
상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성하는, 사용자와 상호작용하는 가상 펫을 제공하는 방법.The method according to claim 1,
Wherein the at least one virtual pet stored in the database forms a virtual social community.
데이터베이스에 저장된 적어도 하나의 가상 펫으로부터, 상기 사용자에게 개별적으로 분양된 가상 펫을 식별하는 사용자 식별부;
상기 식별된 가상 펫에 대응하는 객체를 디스플레이하는 디스플레이부; 및
상기 사용자로부터 상호작용 정보를 수신하고, 상기 수신된 상호작용 정보에 응답하여, 상기 가상 펫에 대응하는 객체의 상호작용 동작을 제어하는 상호작용부
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.1. A robot for providing virtual pets interacting with a user,
A user identification unit for identifying, from at least one virtual pet stored in a database, a virtual pet individually sold to the user;
A display unit for displaying an object corresponding to the identified virtual pet; And
An interaction unit for receiving interaction information from the user and controlling an interaction operation of an object corresponding to the virtual pet in response to the received interaction information,
And a virtual pet interacting with the user.
상기 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 클라우드 서버로 전송하는 통신부
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.13. The method of claim 12,
A communication unit for transmitting the interaction information and the information associated with the interaction operation of the virtual pet to the cloud server;
And a virtual pet that interacts with the user.
상기 상호작용부는,
상기 상호작용의 결과로부터 미리 정한 이벤트가 감지되면, 상기 미리 정한 이벤트에 대응하는 이벤트 신호를 생성하고,
상기 생성된 이벤트 신호를 관리자 단말로 전송하는 통신부
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.13. The method of claim 12,
The interaction unit includes:
Generating an event signal corresponding to the predetermined event when a predetermined event is detected from the result of the interaction,
A communication unit for transmitting the generated event signal to the administrator terminal
And a virtual pet that interacts with the user.
상기 통신부는,
상기 관리자 단말로부터 상기 생성된 이벤트 신호에 대한 관리 신호를 수신하고,
상기 상호작용부는,
상기 관리 신호에 응답하여 상기 가상 펫의 상호작용 동작을 제어하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.15. The method of claim 14,
Wherein,
Receiving a management signal for the generated event signal from the administrator terminal,
The interaction unit includes:
And controlling an interaction operation of the virtual pet in response to the management signal.
A robot that provides virtual pets that interact with users.
상기 관리 신호는 상기 미리 정한 이벤트에 대응하여 상기 사용자에 대한 지시 신호를 포함하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.16. The method of claim 15,
Wherein the management signal includes an instruction signal for the user corresponding to the predetermined event,
A robot that provides virtual pets that interact with users.
상기 상호작용부는,
상기 관리 신호를 상기 가상 펫의 음성에 대응하는 음성 출력 신호 및 상기 가상 펫의 행동을 제어하기 위한 행동 제어 신호 중 적어도 하나로 변환하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.16. The method of claim 15,
The interaction unit includes:
Converting the management signal into at least one of a voice output signal corresponding to the voice of the virtual pet and a behavior control signal for controlling the behavior of the virtual pet,
A robot that provides virtual pets that interact with users.
상기 사용자 식별부는,
얼굴 인식 정보, 홍채 인식 정보, 및 ID 정보 중 적어도 하나를 포함하는 사용자 정보에 기초하여 상기 사용자를 인식하는,
사용자와 상호작용하는 가상 펫을 제공하는 로봇.13. The method of claim 12,
The user identification unit,
Recognizing the user based on user information including at least one of face identification information, iris recognition information, and ID information,
A robot that provides virtual pets that interact with users.
상기 사용자가 모바일 단말에 접근 가능한 경우 상기 모바일 단말을 통해 상기 객체를 디스플레이하도록 상기 모바일 단말을 제어하는 통신부
를 더 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 로봇.13. The method of claim 12,
A communication unit for controlling the mobile terminal to display the object through the mobile terminal when the user can access the mobile terminal;
And a virtual pet that interacts with the user.
상기 데이터베이스에 저장된 상기 적어도 하나의 가상 펫은 가상 소셜 커뮤니티를 형성하는, 사용자와 상호작용하는 가상 펫을 제공하는 로봇.13. The method of claim 12,
Wherein the at least one virtual pet stored in the database provides a virtual pet interacting with a user forming a virtual social community.
상기 사용자에게 제공하기 위한 가상 펫을 저장하는 가상 펫 저장부;
상기 사용자로부터 상호작용 정보 및 상기 가상 펫의 상호작용 동작과 연관된 정보를 수신하는 통신부; 및
상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 저장하여 분석하는 분석부
를 포함하는 사용자와 상호작용하는 가상 펫을 제공하는 서버.1. A server for providing virtual pets interacting with a user,
A virtual pet storage unit for storing a virtual pet to be provided to the user;
A communication unit for receiving interaction information from the user and information related to an interaction operation of the virtual pet; And
An analysis unit for storing and analyzing the interaction information and the information associated with the interaction operation,
Wherein the virtual pet interacts with the user.
상기 분석부는,
상기 상호작용 정보 및 상기 상호작용 동작과 연관된 정보를 분석한 결과에 기초하여, 상기 가상 펫의 동작을 제어하기 위한 제어 신호를 생성하고,
상기 통신부는,
상기 사용자에게 상기 가상 펫이 제공되는 모바일 단말 및 로봇 중 적어도 하나로 상기 제어 신호를 전송하는,
사용자와 상호작용하는 가상 펫을 제공하는 서버.22. The method of claim 21,
The analyzing unit,
Generating a control signal for controlling the operation of the virtual pet based on a result of analyzing the interaction information and the information associated with the interaction operation,
Wherein,
And transmitting the control signal to at least one of a mobile terminal and a robot provided with the virtual pet,
A server that provides virtual pets that interact with the user.
상기 분석부는,
상기 상호작용 정보로부터 미리 정한 이벤트가 감지하여 이벤트 신호를 생성하고,
상기 통신부는,
상기 생성된 이벤트 신호를 로봇, 모바일 단말, 및 관리자 단말 중 적어도 하나로 전송하는,
사용자와 상호작용하는 가상 펫을 제공하는 서버.22. The method of claim 21,
The analyzing unit,
A predetermined event is detected from the interaction information to generate an event signal,
Wherein,
And transmitting the generated event signal to at least one of a robot, a mobile terminal, and an administrator terminal,
A server that provides virtual pets that interact with the user.
상기 가상 펫 저장부는,
상기 사용자의 상기 가상 펫 및 다른 사용자의 가상 펫이 형성하는 가상 세계를 저장하는,
사용자와 상호작용하는 가상 펫을 제공하는 서버.22. The method of claim 21,
The virtual pet storage unit stores,
A virtual world formed by the virtual pet of the user and the virtual pet of another user;
A server that provides virtual pets that interact with the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140098532A KR20160015803A (en) | 2014-07-31 | 2014-07-31 | Robot, server, mobile terminal, and method to provide virtual pet for interacting with user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140098532A KR20160015803A (en) | 2014-07-31 | 2014-07-31 | Robot, server, mobile terminal, and method to provide virtual pet for interacting with user |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160015803A true KR20160015803A (en) | 2016-02-15 |
Family
ID=55356672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140098532A KR20160015803A (en) | 2014-07-31 | 2014-07-31 | Robot, server, mobile terminal, and method to provide virtual pet for interacting with user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160015803A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190124631A (en) | 2018-04-26 | 2019-11-05 | 제이엔씨 주식회사 | Liquid crystal composition and liquid crystal display device |
KR20210092051A (en) * | 2020-01-15 | 2021-07-23 | 주식회사 와이닷츠 | Physical substantive cyber robot |
-
2014
- 2014-07-31 KR KR1020140098532A patent/KR20160015803A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190124631A (en) | 2018-04-26 | 2019-11-05 | 제이엔씨 주식회사 | Liquid crystal composition and liquid crystal display device |
KR20210092051A (en) * | 2020-01-15 | 2021-07-23 | 주식회사 와이닷츠 | Physical substantive cyber robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11669156B2 (en) | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality | |
US20220035903A1 (en) | Personalized service operation system and method of smart device and robot using smart mobile device | |
CN105934227B (en) | Audio navigation auxiliary | |
US20180231653A1 (en) | Entity-tracking computing system | |
JP7203865B2 (en) | Multimodal interaction between users, automated assistants, and other computing services | |
US10369699B2 (en) | Executing software applications on a robot | |
Portugal et al. | SocialRobot: An interactive mobile robot for elderly home care | |
US20150081304A1 (en) | System for say-feel gap analysis in video | |
AU2018202076A1 (en) | Activity monitoring of a robot | |
CN109765991A (en) | Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction | |
US20210272585A1 (en) | Server for providing response message on basis of user's voice input and operating method thereof | |
US10665032B2 (en) | Real-time motion feedback for extended reality | |
KR20180096483A (en) | Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium | |
US10816800B2 (en) | Electronic device and method of controlling the same | |
WO2016111414A1 (en) | Robot service method and robot apparatus using social network service | |
KR20160015803A (en) | Robot, server, mobile terminal, and method to provide virtual pet for interacting with user | |
US11074510B2 (en) | Embodied cognition platform for use in and control of a device | |
CN112349285A (en) | Method of recognizing voice and electronic device supporting the same | |
Spinsante et al. | Multimodal interaction in a elderly-friendly smart home: a case study | |
US20210142047A1 (en) | Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide | |
US20200219412A1 (en) | System and method for sensor fusion from a plurality of sensors and determination of a responsive action | |
US11855932B2 (en) | Method for adjusting a device behavior based on privacy classes | |
KR102584745B1 (en) | Information exchange device with chatting display | |
KR102455874B1 (en) | Companion animal management system using IoT | |
Chidzambwa et al. | Applying semiotics in configuration of home telecare devices in ambient assisted living environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |