KR102415997B1 - Companion robot - Google Patents

Companion robot Download PDF

Info

Publication number
KR102415997B1
KR102415997B1 KR1020200146599A KR20200146599A KR102415997B1 KR 102415997 B1 KR102415997 B1 KR 102415997B1 KR 1020200146599 A KR1020200146599 A KR 1020200146599A KR 20200146599 A KR20200146599 A KR 20200146599A KR 102415997 B1 KR102415997 B1 KR 102415997B1
Authority
KR
South Korea
Prior art keywords
user
unit
robot
companion robot
module
Prior art date
Application number
KR1020200146599A
Other languages
Korean (ko)
Other versions
KR20220077938A (en
Inventor
김병수
김의동
Original Assignee
(주)로보티즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)로보티즈 filed Critical (주)로보티즈
Priority to KR1020200146599A priority Critical patent/KR102415997B1/en
Priority to PCT/KR2020/015743 priority patent/WO2022097801A1/en
Priority to KR1020220065859A priority patent/KR102537434B1/en
Publication of KR20220077938A publication Critical patent/KR20220077938A/en
Application granted granted Critical
Publication of KR102415997B1 publication Critical patent/KR102415997B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0008Balancing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1646Programme controls characterised by the control loop variable structure system, sliding mode control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1658Programme controls characterised by programming, planning systems for manipulators characterised by programming language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages

Abstract

본 발명의 일실시예는 사용자의 돌봄 감성을 자극하는 반려 로봇으로서, 환경정보와, 사용자의 위치 및 근접 여부를 입력받는 입력부; 상기 입력부에서 입력받은 환경정보, 사용자의 위치 정보 및 근접 횟수 정보를 통해 로봇에 대한 사용자의 의도를 판단하는 판단부; 상기 판단부에서 판단한 사용자의 의도에 대응하는 복수의 시나리오가 내장된 인터랙션 저장부; 및 상기 인터랙션 저장부의 시나리오에 대응하는 정보를 출력하여 로봇의 감정을 표현하는 제1 출력부를 포함하는 것을 특징으로 하는, 반려 로봇을 제공한다.An embodiment of the present invention provides a companion robot that stimulates a user's caring sensibility, comprising: an input unit for receiving environmental information and a user's location and proximity; a determination unit for determining the user's intention toward the robot based on the environment information received from the input unit, the user's location information, and the proximity number information; an interaction storage unit having a plurality of built-in scenarios corresponding to the user's intention determined by the determination unit; and a first output unit for outputting information corresponding to the scenario of the interaction storage unit to express emotions of the robot.

Description

사용자의 돌봄 감성을 자극하는 반려 로봇{COMPANION ROBOT}A companion robot that stimulates the user's caring sensibility {COMPANION ROBOT}

본 발명은 사용자와 교감을 나누고 오락 및 학습 기능을 갖는 반려 로봇에 관한 것으로, 더욱 상세하게는 사용자와 상호 교감이 가능한 반려 로봇으로서 사용자에게 오락기능을 제공함과 동시에, 사용자의 스스로 학습이 가능하고, 이를 통해 건강한 생활습관을 가질 수 있도록 함으로써, 사용자의 돌봄 감성을 자극하는 반려 로봇에 관한 것이다.The present invention relates to a companion robot that communicates with a user and has entertainment and learning functions, and more particularly, as a companion robot capable of mutual interaction with a user, it provides entertainment functions to the user and enables the user to self-learning, This relates to a companion robot that stimulates the user's caring sensibility by enabling them to have a healthy lifestyle.

최근 로봇 기술의 발달에 따라 산업용 로봇 못지않게 이에 대비되는 서비스 로봇(service robot)이 다양하게 개발되고 있다. 특히 서비스 로봇의 한 종류로서, 오락(여가)이나 교육 기능을 갖는 개인용 로봇의 상용화가 활발히 이루어지고 있다.With the recent development of robot technology, various service robots are being developed as well as industrial robots. In particular, as a type of service robot, commercialization of personal robots having entertainment (leisure) or educational functions is being actively carried out.

그러나 이러한 오락 및 교육 기능을 갖는 개인용 로봇은 아직 사용자와의 인터랙션이 부족하고, 정해진 기능 이상의 정서적 교감을 사용자에게 주기 어려웠다. 특히 유아 및 어린이를 대상으로 한 개인용 로봇에서 그러한 문제는 더 심각하였다. 이에 따라 반려 로봇(companion robot) 또는 소셜 로봇(social robot)으로의 기능이 적절히 구현되지 못하였다.However, the personal robot having such entertainment and educational functions still lacks interaction with the user, and it is difficult to give emotional sympathy beyond the predetermined function to the user. In particular, such problems were more serious in personal robots targeting infants and children. Accordingly, functions as a companion robot or a social robot could not be properly implemented.

한편, 최근 어린 아이들은 일찍부터 스마트폰이나 태블릿 피씨를 이용하고 있다. 이들을 위해 게임용 어플리케이션뿐만 아니라 어린 아이들의 정서 안정에 도움을 주고 창의력 향상에 기여할 수 있게 한 다양한 교육용 콘텐츠들이 제안되고 있으나, 종래의 교육용 콘텐츠들의 경우 어린 아이들에게 많은 정보만을 제공할 뿐, 어린 아이들의 흥미를 적절히 유도하지못하는 문제점이 있다. 또한 종래의 교육용 콘텐츠는 아이들에게 활동성보다는 시각적인 효과만을 강조하여 아이들의 오감을 만족한 효과를 제공하지 못한다.On the other hand, recently, young children are using smartphones or tablet PCs from an early age. For these purposes, not only game applications, but also various educational contents that help children's emotional stability and contribute to creativity enhancement have been proposed. However, conventional educational contents provide only a lot of information to young children, There is a problem in that it cannot be properly induced. In addition, the conventional educational content does not provide an effect that satisfies children's five senses by emphasizing only a visual effect rather than an activity to the children.

이와 같이 기존에는 하드웨어와 소프트웨어 두 가지 측면에서 모두 심각한 문제가 있었고, 따라서 이를 극복할 수 있도록 사용자의 돌봄 감성을 자극하는 새로운 형태의 반려 로봇이 필요하게 되었다.As such, there have been serious problems in both hardware and software in the past, so a new type of companion robot that stimulates the user's caring sensibility is needed to overcome this problem.

대한민국 공개특허공보 제10-2018-0060567호 (2018. 06. 07. 공개)Republic of Korea Patent Publication No. 10-2018-0060567 (published on 06.07.2018) 대한민국 공개특허공보 제10-2002-0051642호 (2002. 06. 29. 공개)Republic of Korea Patent Publication No. 10-2002-0051642 (published on June 29, 2002)

본 발명이 이루고자 하는 기술적 과제는 사용자와 상호 교감이 가능한 반려 로봇으로서 사용자에게 오락기능을 제공함과 동시에, 사용자의 스스로 학습이 가능하고, 이를 통해 건강한 생활습관을 가질 수 있도록 한 반려 로봇을 제공하는 것이다.The technical problem to be achieved by the present invention is to provide a companion robot that provides an entertainment function to the user as a companion robot that can interact with the user, and at the same time enables the user to learn on their own, thereby enabling a healthy lifestyle. .

또한 본 발명이 이루고자 하는 또 다른 기술적 과제는 사용자의 돌봄 감성을 자극하는 반려 로봇으로서, 사용자의 돌봄 형태에 따라 단계별 성장 결과를 수치화하고, 이를 통해 사용자들의 순위를 공개하여 사용자의 돌봄 감성과 애완 의욕을 고취할 수 있는 반려 로봇을 제공하는 것이다.In addition, another technical task to be achieved by the present invention is a companion robot that stimulates the user's caring sensibility, quantifying the growth results for each step according to the user's care type, and revealing the users' rankings through this It is to provide a companion robot that can inspire

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

상기 기술적 과제를 달성하기 위하여, 본 발명의 일실시예는 사용자의 돌봄 감성을 자극하는 반려 로봇으로서, 환경정보와, 사용자의 위치 및 근접 여부를 입력받는 입력부; 상기 입력부에서 입력받은 환경정보, 사용자의 위치 정보 및 근접 횟수 정보를 통해 로봇에 대한 사용자의 의도를 판단하는 판단부; 상기 판단부에서 판단한 사용자의 의도에 대응하는 복수의 시나리오가 내장된 인터랙션 저장부; 및 상기 인터랙션 저장부의 시나리오에 대응하는 정보를 출력하여 로봇의 감정을 표현하는 제1 출력부를 포함하는 것을 특징으로 하는, 반려 로봇을 제공한다.In order to achieve the above technical object, an embodiment of the present invention provides a companion robot that stimulates a user's caring sensibility, comprising: an input unit for receiving environmental information and the user's location and proximity; a determination unit for determining the user's intention toward the robot based on the environment information received from the input unit, the user's location information, and the proximity number information; an interaction storage unit having a plurality of built-in scenarios corresponding to the user's intention determined by the determination unit; and a first output unit for outputting information corresponding to the scenario of the interaction storage unit to express emotions of the robot.

본 발명의 실시예에 있어서, 상기 반려 로봇은 하나의 하우징으로 구성된 것일 수 있다.In an embodiment of the present invention, the companion robot may be configured as a single housing.

본 발명의 실시예에 있어서, 상기 복수의 시나리오에 대응하는 캐릭터 형상을 가지며 교체가능한 스킨부를 더 포함할 수 있다.In an embodiment of the present invention, it may further include a replaceable skin unit having a character shape corresponding to the plurality of scenarios.

본 발명의 실시예에 있어서, 상기 복수의 시나리오는, 사용자와의 학습 콘텐츠 또는 운동 콘텐츠 인터랙션을 통해 먹이주기, 잠자기, 활동하기, 운동하기, 학습하기 중 하나 이상의 미션을 수행하여 아이템 획득에 따라 단계별 성장모드를 제공하는 성장 시나리오를 포함할 수 있다.In an embodiment of the present invention, the plurality of scenarios are performed step-by-step according to item acquisition by performing one or more missions among feeding, sleeping, active, exercising, and learning through learning content or exercise content interaction with the user. It may include a growth scenario that provides a growth mode.

본 발명의 실시예에 있어서, 상기 환경정보는, 빛, 소리, 압력, 변위, 진동, 시간, 배터리 잔량, 구동부의 위치값 중 하나 이상을 포함할 수 있다.In an embodiment of the present invention, the environment information may include one or more of light, sound, pressure, displacement, vibration, time, remaining battery capacity, and a position value of the driving unit.

본 발명의 실시예에 있어서, 상기 제1 출력부는 디스플레이, 스피커, LED 중 하나 이상을 포함할 수 있다.In an embodiment of the present invention, the first output unit may include one or more of a display, a speaker, and an LED.

상기 기술적 과제를 달성하기 위하여, 본 발명의 다른 실시예는 사용자의 돌봄 감성을 자극하는 반려 로봇으로서, 머리모듈과 몸통모듈을 가지며, 상기 머리모듈은, 환경정보와, 사용자의 위치 및 근접 여부를 입력받는 입력부; 상기 입력부에서 입력받은 환경정보, 사용자의 위치 정보 및 근접 횟수 정보를 통해 로봇에 대한 사용자의 의도를 판단하는 판단부; 상기 판단부에서 판단한 사용자의 의도에 대응하는 복수의 시나리오가 내장된 인터랙션 저장부; 및 상기 인터랙션 저장부의 시나리오에 대응하는 정보를 출력하는 제1 출력부를 포함하고, 상기 몸통모듈은, 상기 인터랙션 저장부의 시나리오에 대응하여 동작하는 제2 출력부를 포함하고, 상기 머리모듈과 상기 몸통모듈은 접촉패드를 통해 배선없이 전기적으로 연결가능하고, 상기 제1 출력부 및 상기 제2 출력부를 통해 로봇의 감정이 표현되는 것을 특징으로 하는, 반려 로봇을 제공한다.In order to achieve the above technical problem, another embodiment of the present invention is a companion robot that stimulates the user's caring sensibility, and has a head module and a torso module, wherein the head module detects environmental information and the location and proximity of the user. an input unit for receiving input; a determination unit for determining the user's intention toward the robot based on the environment information received from the input unit, the user's location information, and the proximity number information; an interaction storage unit having a plurality of built-in scenarios corresponding to the user's intention determined by the determination unit; and a first output unit for outputting information corresponding to the scenario in the interaction storage unit, wherein the body module includes a second output unit operating in response to the scenario in the interaction storage unit, wherein the head module and the body module include: Provided is a companion robot that can be electrically connected without wiring through a contact pad and that emotions of the robot are expressed through the first output unit and the second output unit.

본 발명의 실시예에 있어서, 상기 제2 출력부는 가감속을 통해 상기 몸통모듈이 지면과 이루는 각도를 변화시킬 수 있다.In an embodiment of the present invention, the second output unit may change an angle formed by the body module with the ground through acceleration/deceleration.

본 발명의 실시예에 있어서, 상기 몸통모듈은 펜부를 더 포함하고, 상기 펜부는 상기 제2 출력부의 가감속에 따라 지면과 접촉 상태 또는 비접촉 상태를 이루며, 상기 접촉 상태와 상기 비접촉 상태의 절환을 통해 비연속적 선그리기가 수행될 수 있다.In an embodiment of the present invention, the body module further includes a pen unit, and the pen unit is in contact or non-contact with the ground according to the acceleration/deceleration of the second output unit, and through switching between the contact state and the non-contact state Discontinuous line drawing may be performed.

본 발명의 실시예에 있어서, 상기 머리모듈과 상기 몸통모듈의 무게 밸런스를 유지하기 위해 접힘이 가능한 꼬리부를 더 포함할 수 있다.In an embodiment of the present invention, it may further include a foldable tail to maintain the weight balance of the head module and the body module.

본 발명의 실시예에 따르면, 사용자와 상호 교감이 가능한 반려 로봇으로서 사용자에게 오락기능을 제공함과 동시에, 사용자의 스스로 학습이 가능하고, 이를 통해 건강한 생활습관을 가질 수 있도록 한 반려 로봇을 제공할 수 있다.According to an embodiment of the present invention, as a companion robot that can interact with the user, it is possible to provide a companion robot that provides an entertainment function to the user and at the same time enables the user to learn on their own, thereby enabling a healthy lifestyle. have.

또한 본 발명의 실시예에 따르면, 사용자의 돌봄 감성을 자극하는 반려 로봇으로서, 사용자의 돌봄 형태에 따라 단계별 성장 결과를 수치화하고, 이를 통해 사용자들의 순위를 공개하여 사용자의 돌봄 감성과 애완 의욕을 고취할 수 있는 반려 로봇을 제공할 수 있다.In addition, according to an embodiment of the present invention, as a companion robot that stimulates the user's caring sensibility, it digitizes the growth results for each step according to the user's care type, and through this, the user's ranking is disclosed to inspire the user's caring sensibility and pet motivation. You can provide a companion robot that can do this.

본 발명의 실시예에 따른 반려 로봇에 의하면, 사용자와의 인터랙션이 풍부하여 정해진 기능 이상의 정서적 교감을 사용자에게 제공할 수 있다. 또한 특히 어린 아이들에게 다양한 오락 및 교육용 콘텐츠를 제공함으로써, 오감을 만족시키는 정서적 안정 및 교육 효과를 볼 수 있다.According to the companion robot according to the embodiment of the present invention, interaction with the user is abundant, so that emotional sympathy beyond a predetermined function can be provided to the user. In addition, by providing various entertainment and educational contents to young children, emotional stability and educational effects that satisfy the five senses can be seen.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above-described effects, and include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 본 발명의 일실시예에 따른 반려 로봇의 구현 도면 및 개념도이다.
도 2는 도 1에 따른 반려 로봇의 개략적인 구성도이다.
도 3은 도 2에 따른 머리모듈의 개략적인 구성도이다.
도 4는 도 3에 따른 머리모듈의 상세 도면이다.
도 5은 도 2에 따른 몸통모듈의 개략적인 구성도이다.
도 6은 도 2에 따른 인터랙션 저장부의 개략적인 구성도이다.
도 7 내지 도 10은 도 6에 따른 인터랙션 저장부의 동작에 따른 성장 모드를 설명하기 위한 도면이다.
도 11은 본 발명의 반려 로봇의 다양한 구현예를 나타낸 도면이다.
도 12는 본 발명의 반려 로봇의 머리모듈의 구현예를 나타낸 도면이다.
도 13은 본 발명의 반려 로봇의 몸통모듈의 구현예를 나타낸 도면이다.
도 14는 본 발명의 반려 로봇의 꼬리부의 활용예를 나타낸 도면이다.
도 15는 본 발명의 실시예에 의한 반려 로봇의 구동방법을 나타낸 플로우 차트이다.
1 is an implementation drawing and conceptual diagram of a companion robot according to an embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of the companion robot according to FIG. 1 .
3 is a schematic configuration diagram of the head module according to FIG.
Figure 4 is a detailed view of the head module according to Figure 3;
FIG. 5 is a schematic configuration diagram of the body module according to FIG. 2 .
FIG. 6 is a schematic configuration diagram of an interaction storage unit according to FIG. 2 .
7 to 10 are diagrams for explaining a growth mode according to the operation of the interaction storage unit according to FIG. 6 .
11 is a view showing various embodiments of the companion robot of the present invention.
12 is a view showing an embodiment of the head module of the companion robot of the present invention.
13 is a view showing an embodiment of the body module of the companion robot of the present invention.
14 is a view showing an example of application of the tail of the companion robot of the present invention.
15 is a flowchart illustrating a method of driving a companion robot according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in several different forms, and thus is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐만 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be “connected (connected, contacted, coupled)” with another part, it is not only “directly connected” but also “indirectly connected” with another member interposed therebetween. "Including cases where In addition, when a part "includes" a certain component, this means that other components may be further provided without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is used only to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에서, "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예컨대 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예컨대 모듈은ASIC(application-specific integrated circuit)으로 구성될 수 있다.In this specification, "module" includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrally constituted part or a minimum unit or a part of one or more functions performing one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 반려 로봇의 구현 도면 및 개념도, 도 2는 도 1에 따른 반려 로봇의 개략적인 구성도, 도 3은 도 2에 따른 머리모듈의 개략적인 구성도, 도 4는 도 3에 따른 머리모듈의 구현 도면, 도 5은 도 2에 따른 몸통모듈의 개략적인 구성도이다.1 is an implementation drawing and conceptual diagram of a companion robot according to an embodiment of the present invention, FIG. 2 is a schematic configuration diagram of the companion robot according to FIG. 1, and FIG. 3 is a schematic configuration diagram of a head module according to FIG. 4 is an implementation view of the head module according to FIG. 3 , and FIG. 5 is a schematic configuration diagram of the body module according to FIG. 2 .

도면을 참조하면, 본 발명의 일실시예에 따른 사용자의 돌봄 감성을 자극하는 반려 로봇(10)은 머리모듈(100)과 몸통모듈(200)을 포함할 수 있다. 단, 머리모듈(100) 만으로도 모든 기능 구현이 가능한 하나의 반려 로봇(10)으로 취급될 수 있다. 여기서, 반려 로봇(10)은 다양한 형태의 스킨을 사용할 수 있으며, 이에 대해서는 후술하기로 한다.Referring to the drawings, the companion robot 10 that stimulates the user's caring sensibility according to an embodiment of the present invention may include a head module 100 and a body module 200 . However, only the head module 100 can be treated as one companion robot 10 that can implement all functions. Here, the companion robot 10 may use various types of skins, which will be described later.

도 1의 (b)에 나타난 개념도에서와 같이, 사용자는 반려 로봇(10)을 이용하여 학습, 성장, 놀이 등의 활동을 하며 교감(인터랙션)을 할 수 있고, 이를 통해 반려 로봇에 대한 돌봄 감성이 자극될 수 있다. 이에 더하여 사용자는 다른 사용자와의 상호 작용이나 정보 공유(순위 공개, 외형 공개 등)를 통해 돌봄 감성과 애완 의욕이 자극받거나 고취될 수 있다.As shown in the conceptual diagram shown in Fig. 1 (b), the user can engage in sympathy (interaction) through activities such as learning, growth, and play using the companion robot 10, and through this, the feeling of caring for the companion robot. This can be stimulated. In addition, the user may be stimulated or inspired by the caring sensibility and the will of the pet through interaction with other users or information sharing (disclosure of rankings, disclosure of appearance, etc.).

머리모듈(100)은 하나의 하우징 내에 일체형으로 구성될 수 있다. 여기서 일체형이라 함은 머리모듈을 이루는 각 구성요소나 부품이 하나의 하우징 내에 수용되는 등의 형상을 가짐으로써, 물리적으로 하나의 객체로 취급될 수 있음을 의미한다.The head module 100 may be integrally configured in one housing. Here, the integral means that each component or part constituting the head module has a shape, such as being accommodated in one housing, so that it can be physically treated as one object.

또한, 머리모듈(100)은 한 개 이상의 센서와 디스플레이를 가질 수 있다. 또한, 머리모듈(100)은 사용자에게 오락 및 학습 기능을 제공할 수 있다. 즉, 머리모듈(100)은 반려 로봇(10)의 중앙처리/제어기능과 함께 사용자와 인터랙션을 하는 기능을 가질 수 있다. 반려 로봇(10)은 하드웨어와 소프트웨어의 결합으로 취급될 수 있다.In addition, the head module 100 may have one or more sensors and a display. In addition, the head module 100 may provide entertainment and learning functions to the user. That is, the head module 100 may have a function of interacting with the user together with the central processing/control function of the companion robot 10 . The companion robot 10 may be treated as a combination of hardware and software.

또한, 머리모듈(100)은, 사용자에게 정보를 출력하거나 사용자로부터 정보를 입력받기 위한 수단을 구비할 수 있다. 이러한 수단으로 버튼, 조이스틱, 터치스크린, 마이크가 있으며, 이러한 예로 한정되는 것은 아니다.In addition, the head module 100 may include means for outputting information to the user or receiving information from the user. Such means include, but are not limited to, buttons, joysticks, touch screens, and microphones.

몸통모듈(200)은 머리모듈(100)과 착탈가능하게 결합될 수 있다. 몸통모듈(200)의 구성과 기능에 대해서는 후술하기로 한다.The body module 200 may be detachably coupled to the head module 100 . The configuration and function of the body module 200 will be described later.

머리모듈(100)에 구비되는 판단부(120) 및 인터랙션 저장부(130)는 일종의 프로그램이라 할 수 있고, 이 프로그램은 스킨부(150)의 형상이나 종류에 따라, 또는 몸통모듈(200)의 형상이나 종류에 따라 상이한 어플리케이션(application)을 구동시킬 수 있다. 이 어플리케이션은 입력부에서 입력받은 환경정보, 사용자의 위치정보, 및 사용자의 근접 횟수 정보를 통해 사용자의 의도를 판단하고, 이를 기초로 로봇의 감정을 표현할 수 있다. 그 외에 기 저장되어 있던 정보와 새로 입력받은 정보를 이용하여, 오락 및 학습 연동 콘텐츠를 디스플레이를 통해 사용자에게 제공할 수 있다.The determination unit 120 and the interaction storage unit 130 provided in the head module 100 can be said to be a kind of program, and this program depends on the shape or type of the skin unit 150 or of the body module 200 . Depending on the shape or type, different applications can be driven. This application can determine the intention of the user through the environmental information received from the input unit, the user's location information, and the user's proximity information, and express the robot's emotions based on this. In addition, by using pre-stored information and newly inputted information, entertainment and learning-linked contents may be provided to the user through the display.

도 3 및 도 4를 참조하면, 머리모듈(100)은 입력부(110), 판단부(120), 인터랙션 저장부(130), 제1 출력부(140)를 포함할 수 있다.3 and 4 , the head module 100 may include an input unit 110 , a determination unit 120 , an interaction storage unit 130 , and a first output unit 140 .

머리모듈(100)은 배터리, 센서, 디스플레이, 스피커, 마이크 등이 하나의 하우징 내에 일체형으로 결합되어 배선이 외부로 노출되지 않을 수 있다. 반려 로봇(10)은 머리모듈(100)의 스피커 및 마이크를 이용해 음성을 통한 입출력을 제공할 수 있고, 디스플레이를 이용해 화면을 통한 입출력을 제공할 수 있다.In the head module 100, a battery, a sensor, a display, a speaker, a microphone, etc. are integrally combined in one housing, so that the wiring may not be exposed to the outside. The companion robot 10 may provide input/output through voice using a speaker and a microphone of the head module 100, and may provide input/output through a screen using a display.

머리모듈(100)은 사용자가 선택가능한 스킨(skin)부(150)를 착탈할 수 있도록 마련될 수 있다. 즉, 머리모듈(100)은 스킨부를 교체하여 다양한 형태로 이용할 수 있다. 스킨부(150)의 상세는 후술하기로 한다.The head module 100 may be provided so that a user selectable skin part 150 is detachable. That is, the head module 100 can be used in various forms by replacing the skin part. Details of the skin part 150 will be described later.

입력부(110)는 환경정보와 사용자의 위치 및 근접 여부를 입력받을 수 있다.The input unit 110 may receive environmental information and the user's location and proximity.

여기서, 환경정보는 빛, 소리, 압력, 변위, 진동, 시간, 배터리 잔량, 구동부의 위치값 중 하나 이상을 포함할 수 있다. 구체적으로, 환경정보는 빛, 소리, 압력, 변위, 진동, 자계 등의 물리량 변화를 전기적인 신호로 바꾼 외부정보일 수 있으며, 이와 달리 시간, 배터리 잔량, 구동부의 위치값 등의 내부정보일 수도 있다.Here, the environmental information may include one or more of light, sound, pressure, displacement, vibration, time, remaining battery capacity, and a position value of the driving unit. Specifically, the environmental information may be external information that converts changes in physical quantities such as light, sound, pressure, displacement, vibration, magnetic field, etc. into electrical signals, and, in contrast, may be internal information such as time, remaining battery capacity, and the position value of the driving unit. have.

이를 위해 입력부(110)는 센서, 터치스크린, 버튼 등을 물리적 장치나 부품을 포함하거나, 이들을 포함하는 개념으로 이해될 수 있다.To this end, the input unit 110 may include a sensor, a touch screen, a button, or the like, a physical device or part, or may be understood as a concept including these.

판단부(120)는 입력부(110)에서 입력받은 환경정보와, 사용자의 위치 정보 및 근접 횟수 정보를 통해 로봇에 대한 사용자의 의도를 판단할 수 있다. 예컨대 현재 반려 로봇(10)의 위치나 현재 시간과 같은 환경정보와, 사용자와 반려 로봇(10) 사이의 거리나, 사용자가 반려 로봇(10)에 근접한 횟수 등을 고려하여 사용자가 반려 로봇(10)에 기대하는 의도, 또는 사용자가 반려 로봇(10)의 동작이나 인터랙션 의도를 판단할 수 있다.The determination unit 120 may determine the user's intention toward the robot based on the environment information received from the input unit 110, the user's location information, and the proximity number information. For example, in consideration of environmental information such as the current location or current time of the companion robot 10 , the distance between the user and the companion robot 10 , and the number of times the user approaches the companion robot 10 , the user ), or the user's motion or interaction intention of the companion robot 10 may be determined.

인터랙션 저장부(130)는 판단부(120)에서 판단한 사용자의 의도에 대응하는 복수의 시나리오가 내장될 수 있다.The interaction storage unit 130 may have a plurality of built-in scenarios corresponding to the user's intention determined by the determination unit 120 .

여기서, 복수의 시나리오는 사용자와의 학습 콘텐츠 또는 운동 콘텐츠 인터랙션을 통해 아이템 획득에 따라 단계별 성장모드를 제공하는 성장 시나리오를 포함할 수 있다. 이러한 성장 시나리오는 먹이주기, 잠자기, 활동하기, 운동하기, 학습하기 중 하나 이상을 포함할 수 있다. 이에 대한 상세는 후술하기로 한다.Here, the plurality of scenarios may include a growth scenario that provides a step-by-step growth mode according to the acquisition of an item through interaction with the user through learning content or exercise content. Such a growth scenario may include one or more of feeding, sleeping, being active, exercising, and learning. Details of this will be described later.

제1 출력부(140)는 인터랙션 저장부(130)의 시나리오에 대응하는 정보를 출력하여 로봇의 감정을 표현할 수 있다. 제1 출력부는 디스플레이, 스피커, LED 중 하나 이상을 포함할 수 있다.The first output unit 140 may output information corresponding to the scenario of the interaction storage unit 130 to express the emotion of the robot. The first output unit may include one or more of a display, a speaker, and an LED.

예컨대 디스플레이에 우는 모양이나 웃는 모양, 이모티콘 등의 이미지를 출력하여 사용자에게 로봇의 감정을 표현할 수 있다.For example, by outputting images such as crying, smiling, or emoticons on the display, the robot's emotions can be expressed to the user.

도 3 및 도 12를 참조하면, 머리모듈(100)은 스킨부(150)를 더 포함할 수 있다. 스킨부(150)는 쉽게 교체가 가능하고 인터랙션 저장부(130)에 내장된 복수의 시나리오에 대응하는 캐릭터 형상을 가질 수 있다. 예컨대 도 11 등을 참조하면, 스킨부(150)는 코알라 모양, 쥐 모양, 인간형 로봇 모양, 격투형 로봇 모양 등의 캐릭터 형상을 가질 수 있으며, 이러한 형상으로 한정되는 것은 아니고 다양한 형태와 구조를 가지도록 변형될 수 있다.3 and 12 , the head module 100 may further include a skin unit 150 . The skin unit 150 may be easily replaced and may have a character shape corresponding to a plurality of scenarios embedded in the interaction storage unit 130 . For example, referring to FIG. 11 , the skin unit 150 may have a character shape such as a koala shape, a mouse shape, a humanoid robot shape, or a fighting robot shape, and is not limited to these shapes and has various shapes and structures. can be transformed to

도 4를 참조하여, 머리모듈(100)의 일실시예의 물리적 외형 및 기능에 대해 구체적으로 설명하기로 한다. 도 4의 (a)는 머리모듈(100)의 상세 사시도이고, 도 4의 (b)는 도 4(a)의 머리모듈(100)의 육면도이다.4, the physical appearance and function of an embodiment of the head module 100 will be described in detail. Fig. 4 (a) is a detailed perspective view of the head module 100, and Fig. 4 (b) is a six sectional view of the head module 100 of Fig. 4 (a).

머리모듈(100)의 전면에는 디스플레이(141)가 마련될 수 있다. 예컨대, 디스플레이(141)는 LCD 디스플레이일 수 있다. 디스플레이(141)를 통해 사용자에게 로봇의 감정이 전달될 수 있다는 점에서 디스플레이(141)는 제1 출력부(140)를 이루는 구성일 수 있다. 디스플레이(141)는 사용자와 상호작용할 수 있는 GUI(그래픽 사용자 인터페이스)를 표현할 수 있다.A display 141 may be provided on the front side of the head module 100 . For example, the display 141 may be an LCD display. The display 141 may constitute the first output unit 140 in that the emotion of the robot may be transmitted to the user through the display 141 . The display 141 may represent a graphical user interface (GUI) capable of interacting with a user.

한편, 디스플레이(141)는 터치입력이 가능한 터치스크린일 수 있다. 이 경우 디스플레이(141)는 사용자로부터 정보를 입력 받고 또한 사용자에게 정보를 출력할 수 있다는 점에서, 입력부(110)와 제1 출력부(140)의 기능을 함께 수행할 수 있다.On the other hand, the display 141 may be a touch screen capable of a touch input. In this case, the display 141 may perform the functions of the input unit 110 and the first output unit 140 together in that it can receive information from the user and output information to the user.

또한, 머리모듈(100)의 전면에는 반려 로봇(10)과 상호 작용하기 위한 값을 입력받는 각종 버튼(111, 112, 113)이 마련될 수 있다. 이러한 버튼(111, 112, 113)은 방향입력 버튼, 엔터버튼일 수 있으며, 이러한 예로 한정되는 것은 아니다. 머리모듈(100)의 측면에는 전원버튼이 마련될 수 있으며, 이러한 위치로 한정되는 것은 아니다.In addition, various buttons 111 , 112 , and 113 for receiving values for interaction with the companion robot 10 may be provided on the front side of the head module 100 . These buttons 111 , 112 , and 113 may be a direction input button or an enter button, but are not limited to these examples. A power button may be provided on the side of the head module 100, but is not limited to this position.

머리모듈(100)의 전면 또는 측면에는 마이크(114)가 마련될 수 있다. 마이크(114)는 음성 인식 기능을 이용하여 사용자로부터 정보를 입력 받을 수 있다. 버튼(111, 112, 113) 및 마이크(114)는 입력부(110)를 이루는 구성일 수 있다.A microphone 114 may be provided on the front or side of the head module 100 . The microphone 114 may receive information from a user using a voice recognition function. The buttons 111 , 112 , 113 and the microphone 114 may be configured to form the input unit 110 .

예시적으로 마이크(114)는 머리모듈(100)의 양쪽 측면에 마련될 수 있다. 이와 같이 이격된 위치의 두 개 이상의 마이크(114)를 통해 외부 음향의 방향 탐지가 가능하며, 이를 이용하여 음원의 위치, 예컨대 사용자의 방향과 거리를 파악하고, 이를 이용하여 사용자와의 인터랙션을 할 수 있다.Illustratively, the microphone 114 may be provided on both sides of the head module 100 . It is possible to detect the direction of an external sound through two or more microphones 114 spaced apart as described above. can

그 외에, 머리모듈(100)에는 조이스틱이 마련될 수 있으며, 이를 통해 조이스틱 기반의 메뉴 방식을 사용자에게 제공할 수도 있다.In addition, a joystick may be provided in the head module 100, and a joystick-based menu method may be provided to the user through this.

머리모듈(100)에는 도시되지 않은 센서가 마련될 수 있다. 센서는 예컨대 관성 센서(IMU, Inertia Measurement Unit), 자이로 센서(ZYRO), 적외선(IR) 센서일 수 있으며, 이러한 예로 한정되는 것은 아니다. 센서는 환경정보 또는 사용자의 위치나 근접 여부를 센싱할 수 있으며, 이에 따라 센서는 입력부(110)를 이루는 구성일 수 있다. 센서는 예컨대 머리모듈(100)의 좌, 우, 좌하, 우하 및 바닥에 위치하는 적외선(IR) 센서일 수 있으나, 이러한 종류 및 위치로 한정되는 것은 아니다. 예시적으로, 머리모듈(100)의 하부에 다수개의 적외선(IR) 센서(115)가 마련되고, 이를 통해 수집된 정보를 이용하여 사용자와의 인터랙션을 할 수 있다.A sensor, not shown, may be provided in the head module 100 . The sensor may be, for example, an inertia measurement unit (IMU), a gyro sensor (ZYRO), or an infrared (IR) sensor, but is not limited thereto. The sensor may sense environmental information or the user's location or proximity, and accordingly, the sensor may be a component of the input unit 110 . The sensor may be, for example, an infrared (IR) sensor located on the left, right, lower left, lower right, and bottom of the head module 100, but is not limited thereto. Illustratively, a plurality of infrared (IR) sensors 115 are provided at the lower portion of the head module 100, and the user can interact using the information collected through this.

또한, 머리모듈(100)의 전면 또는 상면에는 스피커(142)가 마련될 수 있다. 스피커(142)를 통해 음성 또는 소리 정보가 출력될 수 있으며, 이를 통해 로봇의 감정이 사용자에게 전달될 수 있다. 즉, 스피커(142)는 제1 출력부(1400를 이루는 구성일 수 있다. 마이크(114) 및 스피커(142)의 형태나 위치, 개수 등은 변경이 가능하며, 도시된 바로 한정되는 것은 아니다.In addition, a speaker 142 may be provided on the front or upper surface of the head module 100 . Voice or sound information may be output through the speaker 142, and through this, the robot's emotions may be transmitted to the user. That is, the speaker 142 may be a component constituting the first output unit 1400. The shape, position, number, etc. of the microphone 114 and the speaker 142 may be changed, and are not limited thereto.

머리모듈(100)의 후면에는 착탈부(160)가 마련될 수 있다. 이러한 착탈부(160)에 의해 머리모듈(100)과 몸통모듈(200)이 물리적 또는 전기적으로 연결될 수 있다. 예컨대 착탈부(160)는 자석 커넥터일 수 있으며, 자력을 이용하여 머리모듈(100)과 몸통모듈(200)의 결합 및 분리가 손쉽게 이루어지도록 할 수 있다.A detachable part 160 may be provided on the rear side of the head module 100 . The head module 100 and the body module 200 may be physically or electrically connected by the detachable part 160 . For example, the detachable part 160 may be a magnetic connector, and by using magnetic force, the coupling and separation of the head module 100 and the body module 200 may be easily performed.

또한, 머리모듈(100)에는 다른 전자기기 또는 저장매체 등과 연결 가능한 통신 단자가 설치될 수 있다. 예컨대 머리모듈(100)의 후면에는 USB 단자가 마련될 수 있다.In addition, the head module 100 may be provided with a communication terminal that can be connected to other electronic devices or storage media. For example, a USB terminal may be provided on the rear side of the head module 100 .

도 5를 참조하면, 몸통모듈(200)은 제2 출력부(210) 및 펜부(220)를 포함할 수 있다.Referring to FIG. 5 , the body module 200 may include a second output unit 210 and a pen unit 220 .

제2 출력부(210)는 머리모듈(100)의 인터랙션 저장부(130)에 저장된 복수의 시나리오에 대응하여 동작할 수 있다. 제2 출력부(210)는 구동부일 수 있으며, 이를 통해 복수의 시나리오에 대응하여 반려 로봇(10)을 이동시키거나 회전시킬 수 있다. 이에 대한 상세는 후술하기로 한다.The second output unit 210 may operate in response to a plurality of scenarios stored in the interaction storage unit 130 of the head module 100 . The second output unit 210 may be a driving unit, and through this, the companion robot 10 may be moved or rotated in response to a plurality of scenarios. Details of this will be described later.

머리모듈(100)과 몸통모듈(200)은 접촉패드를 통해 배선없이 전기적으로 연결될 수 있다. 머리모듈(100)과 몸통모듈(200)에는 각각 자석이 마련되어 빠르고 편리하게 정확한 위치로 결합이 이루어질 수 있고, 이에 따라 접촉패드도 결합되어 전기적인 연결이 손쉽게 이루어질 수 있다.The head module 100 and the body module 200 may be electrically connected through contact pads without wiring. The head module 100 and the body module 200 are provided with magnets, respectively, so that they can be quickly and conveniently coupled to the correct positions, and thus the contact pads are also coupled to facilitate electrical connection.

즉, 머리모듈(100) 및 몸통모듈(200)에는 착탈을 위한 한 쌍의 자석이 마련될 수 있고, 머리모듈(100) 및 몸통모듈(200)에는 한 쌍의 접촉패드가 마련될 수 있다. 이로써 머리모듈(100)과 몸통모듈(200)이 결합되었을 경우 배선 커넥터없이 상호 신호전달이 이루어질 수 있다. 또한, 머리모듈(100)과 몸통모듈(200)의 분리도 손쉽게 이루어질 수 있다.That is, a pair of magnets for detachment may be provided on the head module 100 and the body module 200 , and a pair of contact pads may be provided on the head module 100 and the body module 200 . Accordingly, when the head module 100 and the body module 200 are coupled, mutual signal transmission can be made without a wiring connector. In addition, the separation of the head module 100 and the body module 200 can be easily made.

몸통모듈(200)의 제2 출력부(210)는 반려 로봇(10)을 물리적으로 구동시키기 위한 구동부일 수 있다. 구동부는 엑츄에이터 또는 모터 등의 구동유닛, 감속유닛, 바퀴 등을 포함하여 구성될 수 있으며, 이로써 전후진, 회전, 기타 다양한 동작으로 구동될 수 있다.The second output unit 210 of the body module 200 may be a driving unit for physically driving the companion robot 10 . The driving unit may be configured to include a driving unit such as an actuator or a motor, a reduction unit, a wheel, and the like, and thus may be driven in a forward/backward, rotational, or other various motions.

제2 출력부(2100는 가감속을 통해 몸통모듈(200)이 지면과 이루는 각도를 변화시킬 수 있다.The second output unit 2100 may change an angle formed by the body module 200 with the ground through acceleration/deceleration.

몸통모듈(200)의 외형은 다양한 형태로 제공될 수 있다. 예컨대 몸통모듈(200)은 자동차 본체, 쥐 모양, 인간형 로봇 모양, 격투형 로봇 모양 등을 제공할 수 있다. 예컨대 자동차 본체 모양의 몸통모듈(200)을 가질 경우, 제2 출력부(210)는 전진, 후진, 회전, 또는 정지(각도조절) 상태로 이동할 수 있다. 또한, 격투형 로봇 모양의 몸통모듈(200)을 가질 경우, 제2 출력부(210)는 격투하는 형태로 구동할 수 있다.The outer shape of the body module 200 may be provided in various forms. For example, the body module 200 may provide a vehicle body, a mouse shape, a humanoid robot shape, a fighting robot shape, and the like. For example, when the body module 200 in the shape of a vehicle body is provided, the second output unit 210 may move forward, backward, rotate, or stop (angle adjustment). In addition, when the body module 200 in the form of a fighting robot is provided, the second output unit 210 may be driven in a fighting form.

이와 같이 반려 로봇(10)은 제1 출력부(140)와 제2 출력부(210)를 통해 로봇의 감정을 사용자에게 전달할 수 있다.As such, the companion robot 10 may transmit the robot's emotion to the user through the first output unit 140 and the second output unit 210 .

몸통모듈(200)은 펜부(220)를 더 포함할 수 있다. 펜부(220)를 통해 텍스트 또는 이미지를 출력할 수 있다. 즉, 펜을 움직여 종이에 글씨나 그림을 그리는 것과 대응하는 기능이 구현될 수 있다.The body module 200 may further include a pen unit 220 . Text or an image may be output through the pen unit 220 . That is, a function corresponding to moving a pen to draw text or a picture on paper may be implemented.

펜부(220)는 제2 출력부(210)의 가감속에 따라 지면과 접촉 상태 또는 비접촉 상태를 이루며, 이러한 접촉 상태와 비접촉 상태의 절환(변환)을 통해 비연속적 선그리기가 수행될 수 있다. 즉, 머리모듈(100)의 제어에 따라 몸통모듈(200)의 제2 출력부(210)가 구동되고, 이에 따라 반려 로봇(10)의 전후진, 회전, 및 제동 동작과 같은 가감속에 따라 펜의 승강을 제어함으로써 비연속적 선그리기가 수행될 수 있다. 연속적 선그리기(한붓그리기)가 가능함은 물론이다.The pen unit 220 is in contact or non-contact with the ground according to the acceleration/deceleration of the second output unit 210, and discontinuous line drawing may be performed through switching (conversion) between the contact and non-contact states. That is, the second output unit 210 of the body module 200 is driven under the control of the head module 100, and accordingly, the pen according to acceleration and deceleration such as forward/backward, rotation, and braking operations of the companion robot 10 By controlling the elevation of , discontinuous line drawing can be performed. Of course, continuous line drawing (one-stroke drawing) is possible.

다음으로, 본 발명의 실시예에 따른 반려 로봇의 소프트웨어적인 동작에 대해 설명하기로 한다.Next, a software operation of the companion robot according to an embodiment of the present invention will be described.

도 6은 도 2에 따른 인터랙션 저장부의 개략적인 구성도, 도 7 내지 도 10은 도 6에 따른 인터랙션 저장부의 동작에 따른 성장 모드를 설명하기 위한 도면, 도 11은 본 발명의 반려 로봇의 다양한 구현예를 나타낸 도면, 도 12는 본 발명의 반려 로봇의 머리모듈의 구현예를 나타낸 도면, 도 13은 본 발명의 반려 로봇의 몸통모듈의 구현예를 나타낸 도면, 도 14는 본 발명의 반려 로봇의 꼬리부의 활용예를 나타낸 도면, 도 15는 본 발명의 실시예에 의한 반려 로봇의 구동방법을 나타낸 플로우차트이다.6 is a schematic configuration diagram of the interaction storage unit according to FIG. 2 , FIGS. 7 to 10 are views for explaining a growth mode according to the operation of the interaction storage unit according to FIG. 6 , and FIG. 11 is various implementations of the companion robot of the present invention Fig. 12 is a view showing an embodiment of the head module of the companion robot of the present invention, Fig. 13 is a view showing an embodiment of the body module of the companion robot of the present invention, and Fig. 14 is a view showing an embodiment of the companion robot of the present invention 15 is a diagram showing an example of application of the tail, and FIG. 15 is a flowchart showing a driving method of a companion robot according to an embodiment of the present invention.

도 6 및 도 7을 참조하면, 인터랙션 저장부(130)는 성장부(131), 학습부(132), 코딩부(133) 및 놀이부(134)를 포함할 수 있다.6 and 7 , the interaction storage unit 130 may include a growth unit 131 , a learning unit 132 , a coding unit 133 , and a play unit 134 .

전술한 바와 같이, 인터랙션 저장부(130)는 사용자의 의도에 대응하는 복수의 시나리오를 포함할 수 있고, 이러한 시나리오는 사용자와의 학습 콘텐츠 또는 운동 콘텐츠 인터랙션을 통해 아이템 획득에 따라 단계별 성장모드를 제공하는 성장 시나리오일 수 있다. 이러한 성장 시나리오의 구체적인 구현은 성장부(131), 학습부(132), 코딩부(133) 및 놀이부(134)에 의해 이루어질 수 있다. 이들 성장부(131), 학습부(132), 코딩부(133) 및 놀이부(134)는 사용자에게 제공하는 콘텐츠의 종류에 따라 상이한 기능을 가질 수 있다.As described above, the interaction storage unit 130 may include a plurality of scenarios corresponding to the user's intention, and these scenarios provide a step-by-step growth mode according to the acquisition of items through interaction with learning content or exercise content with the user. This could be a growth scenario. Specific implementation of such a growth scenario may be made by the growth unit 131 , the learning unit 132 , the coding unit 133 , and the play unit 134 . The growth unit 131 , the learning unit 132 , the coding unit 133 , and the play unit 134 may have different functions depending on the type of content provided to the user.

인터랙션 저장부(130)의 성장 시나리오에 따라 사용자와의 상호 작용을 이용해서 반려 로봇(10)을 성장시킬 수 있다. 또한, 학습 기능을 제공하고, 학습 성과에 대해 보상을 제공할 수 있다.According to the growth scenario of the interaction storage unit 130 , the companion robot 10 may be grown using interaction with the user. In addition, it may provide a learning function and provide a reward for learning performance.

또한, 인터랙션 저장부(130)는 제1 출력부(140)를 통해 GUI를 제공하고, 입력부(110)를 통해 제어 명령 또는 학습, 놀이와 같은 성장(육성)을 위한 상호 작용을 수행할 수 있다.In addition, the interaction storage unit 130 may provide a GUI through the first output unit 140 and perform an interaction for growth (nurture) such as a control command or learning or play through the input unit 110 . .

먼저, 성장부(131)는 사용자의 사용이력을 반영한 건강, 애정 및 지능 지수에 따라 단계적인 성장 모드를 사용자에게 제공할 수 있다. 예컨대 건강, 애정 및 지능 지수에 따라 반려 로봇(10)은 탄생 모드, 갓난아기 모드, 아기 모드, 어린이 모드와 같은 성장 모드가 될 수 있으며, 이러한 성장 모드에 따라 머리모듈(100)의 디스플레이에 표현되는 그래픽이 달라질 수 있다. 이에 대한 상세는 후술하기로 한다.First, the growth unit 131 may provide a step-by-step growth mode to the user according to the health, affection, and intelligence index reflecting the user's usage history. For example, depending on health, affection, and intelligence index, the companion robot 10 may be in a growth mode such as a birth mode, a newborn mode, a baby mode, and a child mode, and it is expressed on the display of the head module 100 according to the growth mode. Graphics may vary. Details of this will be described later.

여기서, 인터랙션 저장부(130)는 반려 로봇(10)의 건강, 애정 지수의 성장을 위해 건강한 생활 습관을 기를 수 있는 산책, 규칙적 수면, 운동, 영양 섭취 등과 같은 기능을 제공한다.Here, the interaction storage unit 130 provides functions such as walking, regular sleep, exercise, nutrition, etc. that can cultivate a healthy lifestyle for the health and love index of the companion robot 10 .

인터랙션 저장부(130)는 건강 지수를 반려 로봇(10)의 동작시간 또는 동작속도와 연동시켜 몸통모듈(200)의 구동을 제어할 수 있다. 또한, 인터랙션 저장부(130)는 관리자의 입력에 따라 사용자에게 칭찬스티커를 부여하거나 또는 칭찬스티커의 부여를 전제로 한 미션을 제공하며, 이러한 칭찬스티커의 부여에 따라 애정 지수가 설정될 수 있다. 여기서, 관리자는 부모 등의 보호자이고 사용자는 어린 자녀일 수 있다.The interaction storage unit 130 may control the operation of the body module 200 by interlocking the health index with the operation time or operation speed of the companion robot 10 . In addition, the interaction storage unit 130 grants a praise sticker to the user according to the input of the manager or provides a mission on the premise of the application of the praise sticker, and the affection index can be set according to the application of the praise sticker. Here, the manager may be a guardian such as a parent, and the user may be a young child.

구체적으로 인터랙션 저장부(130)는 관리자가 반려 로봇(10) 상에서 미션(예컨대, 심부름이나 학습 등)을 줄 수 있고, 사용자가 주어진 미션을 잘 수행하면 그에 대한 보상을 제공할 수 있다. 또한, 인터랙션 저장부(130)는 미션의 성공적 수행에 따른 보상을 칭찬 스티커로 제공하고, 칭찬 스티커를 많이 획득하면 반려 로봇(10)의 애정 지수가 상승하여 성장시킬 수 있다. 사용자는 획득한 칭찬 스티커를 상점에서 다른 아이템과 교환할 수도 있다.Specifically, the interaction storage unit 130 may provide a mission (eg, errands, learning, etc.) on the companion robot 10 by the manager, and may provide a reward if the user performs the given mission well. In addition, the interaction storage unit 130 may provide a reward according to the successful performance of the mission as a praise sticker, and if a lot of praise stickers are obtained, the affection index of the companion robot 10 may increase and grow. Users can also exchange the acquired praise stickers for other items in the shop.

학습부(132)는 사용자에게 학습 콘텐츠를 제공하고 이에 따른 사용자의 입력을 반영하여 지능 지수가 설정될 수 있다. 즉, 인터랙션 저장부(130)는 반려 로봇(10)의 지능 지수 성장을 위해 학습 게임 기능을 제공할 수 있다. 사용자가 반려 로봇(10)의 학습 기능을 수행하면 반려 로봇(10)의 지능에 반영될 수 있으며, 또한 인터랙션 저장부(130)는 사용자가 스스로 학습할 수 있도록 학습과 관련된 게임을 제공할 수 있다.The learning unit 132 may provide learning content to the user, and the IQ may be set by reflecting the user's input accordingly. That is, the interaction storage unit 130 may provide a learning game function for the IQ growth of the companion robot 10 . When the user performs the learning function of the companion robot 10, the intelligence of the companion robot 10 may be reflected, and the interaction storage unit 130 may provide a game related to learning so that the user can learn by themselves. .

인터랙션 저장부(130)는 학습 게임 수행에 따른 보상을 아이템으로 제공할 수 있다. 학습 게임을 통해 획득한 아이템은 보관함에 보관될 수 있으며, 사용자는 학습을 통해 획득한 아이템을 상점을 통해 원하는 다른 아이템으로 교환할 수 있다. 예컨대 사용자는 학습 게임을 통해 코인을 획득할 수 있고, 상점에서 이들 코인의 수량에 따라 반려 로봇(10)의 성장 단계를 높일 수 있는, 즉 건강 지수나 애정 지수를 높일 수 있는 다양한 아이템을 구매할 수 있다. 이러한 아이템으로는 우유, 이유식, 치료제, 영양제 등이 있다. 또한 사용자는 학습 게임을 통해 획득한 코인을 이용하여 상점에서 놀이부(134)에서 제공하는 게임에 사용하는 아이템을 구매하는 것도 가능하다.The interaction storage unit 130 may provide a reward according to the performance of the learning game as an item. Items acquired through the learning game may be stored in a locker, and the user may exchange the items acquired through learning for other desired items through the store. For example, a user can acquire coins through a learning game, and can purchase various items that can increase the growth stage of the companion robot 10 according to the quantity of these coins in the store, that is, increase the health index or love index. have. These items include milk, baby food, treatment, and nutritional supplements. In addition, the user may purchase items used in the game provided by the play unit 134 in the store using the coins obtained through the learning game.

코딩부(133)는 인터랙션 저장부(130)의 어플리케이션의 변경이나 수정을 위해 사용자로부터 코딩정보를 입력받거나, 또는 사용자의 선택에 따라 코딩정보를 입력받을 수 있는 외부 기기와 무선 또는 유선 연결할 수 있다. 이러한 코딩을 통해 인터랙션 저장부(130)는 몸통모듈(200)을 제어할 수 있다.The coding unit 133 may receive coding information from a user for changing or modifying an application of the interaction storage unit 130, or wirelessly or wired connection with an external device capable of receiving coding information according to a user's selection. . Through this coding, the interaction storage unit 130 can control the body module 200 .

놀이부(134)는 사용자에게 오락 콘텐츠를 제공하고 이에 따른 사용자의 입력을 반영하여 지능 지수가 설정될 수 있다. 오락 콘텐츠는 게임일 수 있다. 이러한 게임은 머리모듈(100)의 디스플레이를 통해 사용자에게 제공되고, 조이스틱이나 버튼을 통해 사용자가 조작하는 것일 수 있다.The play unit 134 may provide entertainment content to the user, and the IQ may be set by reflecting the user's input accordingly. The entertainment content may be a game. Such a game may be provided to the user through the display of the head module 100, and may be operated by the user through a joystick or button.

이와 달리 유선 또는 무선으로 연결된 별도의 조작모듈을 통해 게임이 수행되는 것도 가능하다. 또한 몸통모듈(200)을 구동시키거나 조작하는 형태의 게임도 가능하다. 예컨대 몸통모듈(200)이 자동차 본체 모양을 가질 경우, 자동차 운전 시뮬레이션을 제공하는 형태의 게임이 가능하며, 몸통모듈(200)이 격투형 로봇 모양을 가질 경우, 2개 이상의 로봇 간의 대전 격투형 게임이 가능하다.Contrary to this, it is also possible to play the game through a separate operation module connected by wire or wirelessly. In addition, a game of driving or manipulating the body module 200 is also possible. For example, when the body module 200 has a shape of a car body, a game providing a driving simulation is possible. When the body module 200 has a shape of a fighting robot, a fighting game between two or more robots is possible. This is possible.

한편, 인터랙션 저장부(130)는 반려 로봇(10) 사용을 위한 다양한 설정 환경을 제공할 수 있다. 예컨대 날짜와 시간을 지정하거나, 알람을 수행하거나 스피커의 소리 설정 또는 확장된 프로그램으로 연결이 가능한 QR 형태의 링크 등을 제공할 수 있다.Meanwhile, the interaction storage unit 130 may provide various setting environments for using the companion robot 10 . For example, it is possible to designate the date and time, set an alarm, set the sound of a speaker, or provide a link in the form of a QR that can be connected to an extended program.

이하에서는 도면을 참조하여 성장부(131), 학습부(132), 코딩부(133) 및 놀이부(134)의 구현예를 더 상세히 살펴보기로 한다.Hereinafter, implementation examples of the growth unit 131 , the learning unit 132 , the coding unit 133 , and the play unit 134 will be described in more detail with reference to the drawings.

도 8을 참조하면, 성장부(131)는 반려 로봇(10)의 성장 모드에 따라 머리모듈(100)에 표현되는 화면이 상이할 수 있다. 예컨대, 반려 로봇(10)은 건강, 애정 및 지능 지수에 따라 갓난 아기, 아기, 어린이와 같이 성장 단계를 거치므로 제1 출력부(140)에 표현되는 그래픽을 달리할 수 있다. 이들 성장 단계를 넘기 위해서는 일정한 건강, 애정, 지능 지수가 필요할 수 있다.Referring to FIG. 8 , in the growth unit 131 , the screen displayed on the head module 100 may be different according to the growth mode of the companion robot 10 . For example, since the companion robot 10 goes through a growth stage like a newborn baby, a baby, or a child according to health, affection, and intelligence index, the graphic displayed on the first output unit 140 may be different. Certain health, affection, and IQ scores may be required to cross these stages of growth.

도 9를 참조하면, 성장부(131)는 반려 로봇(10)을 반려동물과 같이 성장시킬 수 있다. 성장부(131)는 먹이 주기, 재우기, 운동시키기 등과 같은 키우는 행위를 부가하여 반려 로봇(10)의 건강, 애정, 지능 등을 포함한 어느 하나를 성장시킬 수 있다. 성장부(131)는 성장 지수 등락 요인에 따라 건강, 애정 및 지능 지수를 추가하거나 감소시킬 수 있다.Referring to FIG. 9 , the growth unit 131 may grow the companion robot 10 like a companion animal. The growth unit 131 may grow any one including health, affection, and intelligence of the companion robot 10 by adding raising actions such as feeding, sleeping, and exercising. The growth unit 131 may add or decrease health, affection, and intelligence indices according to growth index fluctuation factors.

성장부(131)는 먹이를 주는 등의 동작을 수행하면, 이후 지능을 높이기 위해 사용자에게 학습을 진행할 것을 요청할 수 있다.When an operation such as feeding is performed, the growth unit 131 may request the user to perform learning in order to increase intelligence thereafter.

학습부(132)는 사용자가 학습을 진행하면 반려 로봇(10)의 지능을 높이고, 먹이나 치료제와 같은 아이템을 보상으로 제공할 수 있다. 예컨대 인터랙션 저장부(130)는 사용자에게 구구단 또는 영어단어 맞추기와 같은 학습 게임 기능을 제공하고, 사용자가 해당 학습을 진행하면 반려 로봇(10)의 지능 지수와 연동하여 표현할 수 있다. 학습부(132)는 학습의 결과를 반려 로봇(10)의 지능 지수에 반영하므로, 사용자의 학습의욕을 고취시키는 효과가 있다.The learning unit 132 may increase the intelligence of the companion robot 10 when the user proceeds with learning, and may provide an item such as food or a therapeutic agent as a reward. For example, the interaction storage unit 130 provides a learning game function such as multiplication table or English word matching to the user, and when the user proceeds to learn, it can be expressed in conjunction with the IQ of the companion robot 10 . Since the learning unit 132 reflects the learning result in the IQ of the companion robot 10 , there is an effect of stimulating the user's desire to learn.

학습부(132)는 반려 로봇(10)의 지능 지수를 높이기 위한 다양한 학습 방법을 게임의 형태로 제공할 수 있다. 이를 위해 학습부(132)는 수리, 언어, 기억, 공간 기각 창의 영역 등 다양한 형태의 학습을 제공할 수 있다. 예컨대, 학습부(132)는 사칙연산, 영어 단어 맞추기 게임 등과 같은 간단한 학습게임을 포함하여 코딩 훈련 등과 같은 복잡하고 다양한 형태의 학습을 제공할 수 있다.The learning unit 132 may provide various learning methods for increasing the IQ of the companion robot 10 in the form of a game. To this end, the learning unit 132 may provide various types of learning, such as areas of arithmetic, language, memory, and spatial rejection window. For example, the learning unit 132 may provide complex and various types of learning, such as coding training, including simple learning games such as arithmetic operations and English word matching games.

도 10은 본 발명의 일 실시예에 따른 학습부(132)가 제공하는 지각 영역의 학습 문제 예시이다. 학습부(132)는 3차원 상자 그림을 제공하고 사용자는 예컨대 조이스틱을 이용해 위/아래 숫자를 올려 상자의 개수를 맞추는 게임을 제공할 수 있다. 예컨대, 도9에서 학습부(132)는 문제가 제시되기 전에 동물 아이콘이 문제를 숨기도록 하고, 오른쪽 상단의 버튼(▶)을 누르면 동물 아이콘이 사라지고 문제가 시작된다. 도 9의 오른쪽 상단의 버튼(▶)을 누르면 정답을 더 빨리 확인할 수 있다.10 is an example of a learning problem in the perception area provided by the learning unit 132 according to an embodiment of the present invention. The learning unit 132 may provide a 3D box picture, and the user may provide a game of matching the number of boxes by raising up/down numbers using, for example, a joystick. For example, in FIG. 9 , the learning unit 132 hides the problem by the animal icon before the problem is presented, and when the button (▶) at the upper right is pressed, the animal icon disappears and the problem starts. If you press the button (▶) in the upper right of FIG. 9 , you can check the correct answer more quickly.

코딩부(133)는 직접 코딩을 하여 몸통모듈을 제어할 수 있다. 예컨대, 코딩부(133)는 구글 블록클리(blockly) 방식의 블록형 코딩이 가능하도록 개발된 코딩 교육용 플랫폼과 연동할 수 있다.The coding unit 133 may directly code to control the body module. For example, the coding unit 133 may be linked with a platform for coding education developed to enable block-type coding of Google blockly method.

놀이부(134)는 다양한 형태의 반려 로봇(10)을 이용한 로봇 게임을 제공할 수 있다. 예컨대, 놀이부(134)는 선 그리기 또는 달리기 또는 격투 게임 등과 같은 몸통모듈(200)을 구동하는 로봇 게임을 제공할 수 있다. 도 10에 스킨에 따른 다양한 구동 형태의 예시가 나타나 있다.The play unit 134 may provide a robot game using various types of companion robots 10 . For example, the play unit 134 may provide a robot game for driving the body module 200 such as drawing a line or running or fighting games. 10 shows examples of various driving types according to the skin.

도 11은 다양한 스킨을 장착할 수 있는 머리모듈(100)과 스킨에 따른 몸통모듈(200)을 가지는 반려 로봇(10)의 예시이다. 예컨대 반려 로봇(10)은 코알라 스킨을 가지는 머리모듈(100)과 자동차 본체의 몸통모듈(200)이 결합된 형태를 제공할 수 있다.11 is an example of a companion robot 10 having a head module 100 capable of mounting various skins and a body module 200 according to skins. For example, the companion robot 10 may provide a form in which the head module 100 having a koala skin and the body module 200 of the vehicle body are combined.

전술한 바와 같이, 본 발명의 일 실시예에 따른 반려 로봇(10)은 몸통모듈(200)이 펜부(220)를 구비하여 연속 또는 비연속 선그리기를 수행할 수 있고, 반려 로봇(10)을 이동시켜 텍스트(문자)를 직접 쓸 수도 있다. 반려 로봇(10)이 전진할 때는 선을 그리고, 후진할 때는 펜을 들어 이동만 하거나 반대의 경우도 가능하다. 이와 달리, 전진 또는 후진할 때 선을 그리고, 제동시 펜을 회전시키거나 상승시켜 선그리기가 불가능한 상태로 변환한 다음, 다시 원하는 위치로 이동한 후 다시 제동할 경우 펜이 원위치로 복귀하여 선을 그릴 수도 있다. 이러한 동작을 통해 펜을 움직이기 위한(예컨대 승하강 시키기 위한) 별도의 구동모듈이 없이도, 비연속 선그리기가 가능하게 된다. 즉 별도의 구동모듈이 없이 제2 출력부(210)의 가감속 만으로도 비연속 선그리기가 가능하다.As described above, in the companion robot 10 according to an embodiment of the present invention, the body module 200 includes the pen unit 220 to perform continuous or non-continuous line drawing, and the companion robot 10 is You can also write text (characters) directly by moving it. When the companion robot 10 moves forward, it draws a line, and when it moves backward, it is possible to move only by lifting a pen, or vice versa. In contrast, when moving forward or backward, draw a line, and when braking, rotate or raise the pen to make it impossible to draw a line, then move it to the desired position and brake again, the pen returns to the original position and draws a line. You can also draw. Through this operation, non-continuous line drawing is possible without a separate driving module for moving the pen (eg, for elevating or lowering). That is, discontinuous line drawing is possible only by acceleration/deceleration of the second output unit 210 without a separate driving module.

이와 달리, 별도의 구동모듈을 구비하여 연속 또는 비연속 선그리기를 수행하는 것도 가능하다. 반려 로봇(10)은 연속 또는 비연속 그리기 기능을 수학 교육에 활용할 수 있다.Alternatively, it is also possible to perform continuous or discontinuous line drawing by providing a separate driving module. The companion robot 10 may utilize a continuous or non-continuous drawing function for math education.

본 발명의 다른 실시예로 반려 로봇(10)은 몸통모듈(200)을 격투형 로봇으로 구성하여 격투 모션을 수행하도록 할 수 있다. 격투형 몸통모듈(200)은 성장 나이에 따라 움직임이나 동작 속도가 상이할 수 있고, 건강 지수에 따라 상이할 수 있다. 또는 건강 지수에 따라 격투형 몸통모듈(200)의 전체 또는 일부 동작 시간이 변경될 수도 있다. 또한 격투형 몸통모듈(200)은 구동을 활발하게 하는 아이템을 사용하여 격투 시 움직임이나 동작 속도를 빠르게 제어할 수 있다.In another embodiment of the present invention, the companion robot 10 may configure the body module 200 as a fighting robot to perform fighting motions. The fighting type torso module 200 may have different movements or operating speeds according to the growth age, and may be different according to the health index. Alternatively, all or part of the operating time of the fighting type body module 200 may be changed according to the health index. In addition, the fighting type body module 200 can quickly control movement or operation speed during fighting by using an item that activates the driving.

도 12는 본 발명의 일 실시예에 따른 쥐 모양 스킨의 머리모듈의 앞면과 뒷면의 예시이고, 도 13은 본 발명의 일 실시예에 따른 쥐 모양 몸통모듈의 예시 화면들이다.12 is an example of the front and back of a head module of a mouse-shaped skin according to an embodiment of the present invention, and FIG. 13 is an example screen of a mouse-shaped body module according to an embodiment of the present invention.

도 14는 본 발명의 반려 로봇의 꼬리부의 활용예를 나타낸 도면으로 쥐 모양의 머리모듈과 몸통모듈의 가감속에 따라 무게 밸런스를 유지하기 위해 꼬리부(201)가 활용된 예시 도면이다. 꼬리부는 고정이 아닌 형태로 접힘이 가능하여 밸런스 유지가 용이하다.14 is a view showing an example of application of the tail of the companion robot of the present invention. It is an exemplary view in which the tail 201 is utilized to maintain the weight balance according to the acceleration/deceleration of the mouse-shaped head module and the body module. The tail part can be folded in a form that is not fixed, so it is easy to maintain the balance.

본 발명의 다른 양태의 실시예로서 반려 로봇의 구동방법이 제공될 수 있다. 이러한 반려 로봇의 구동방법에 의하면, 사용자의 선택에 따른 머리모듈(100)과 몸통모듈(200)의 착탈 여부에 따라 인터랙션 저장부(130)는 상이한 어플리케이션을 구동하고, 이에 따른 오락 및 학습 연동 콘텐츠를 사용자에게 제공할 수 있다.As an embodiment of another aspect of the present invention, a method of driving a companion robot may be provided. According to the driving method of the companion robot, the interaction storage unit 130 drives different applications depending on whether the head module 100 and the body module 200 are attached or detached according to the user's selection, and thus entertainment and learning interlocking contents can be provided to users.

이러한 오락 및 학습 연동 콘텐츠는 센서를 통해 입력받은 센싱값과, 사용자의 사용이력 정보에 따라 결정될 수 있다.Such entertainment and learning-linked contents may be determined according to a sensed value input through a sensor and user usage history information.

여기서, 인터랙션 저장부(130)는 성장부(131), 학습부(132), 코딩부(133), 및 놀이부(134)를 구비하며, 이를 통해 사용자에게 상이한 콘텐츠를 제공할 수 있다.Here, the interaction storage unit 130 includes a growth unit 131 , a learning unit 132 , a coding unit 133 , and a play unit 134 , and through this, different contents can be provided to the user.

도 15는 본 발명의 실시예에 의한 반려 로봇의 구동방법을 나타낸 플로우 차트이다.15 is a flowchart illustrating a method of driving a companion robot according to an embodiment of the present invention.

이하 설명하는 각 과정은 반려 로봇(10)을 구성하는 각 기능부가 수행하는 과정이나, 본 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 반려 로봇(10)으로 통칭하도록 한다. 또한 이하 설명하는 각 과정은 반려 로봇(10)에서 순서에 관계없이 수행될 수 있고, 독립적으로 수행될 수 있다.Each process described below is a process performed by each functional unit constituting the companion robot 10 , but for the sake of concise and clear explanation of the present invention, the subject of each step will be collectively referred to as the companion robot 10 . In addition, each process to be described below may be performed in the companion robot 10 irrespective of the order or may be performed independently.

단계 S1501에서 반려 로봇(10)은 건강 및 애정 지수를 높이기 위한 성장에 관한 다양한 활동을 제공할 수 있다. 단계 S1502에서 반려 로봇(10)은 지능 지수를 높이기 위한 다양한 학습 게임을 제공할 수 있다.In step S1501, the companion robot 10 may provide various activities related to growth to increase health and affection index. In step S1502, the companion robot 10 may provide various learning games for increasing the IQ.

단계 S1503에서 반려 로봇(10)은 건강, 애정 및 지능 지수에 따라 콘텐츠 표현이 상이하고, 활동적 제약이 따를 수 있다. 예컨대 건강 지수가 낮으면 반려 로봇(10)의 동작 시간이 제한될 수 있다. 즉, 건강 지수가 높은 반려 로봇(10)의 동작 시간이 길수 있다. 자세히 설명하면 격투형 반려 로봇(10)은 제공된 격투 게임 시 건강 지수가 낮으면 전체 동작 시간이 짧아지거나, 또는 구동 동작이 느리거나 정지할 수 있다. 건강 지수가 높은 반려 로봇(10)의 경우, 건강 지수가 낮은 반려 로봇(10)보다 동작 시간이 늘어나고 동작 속도가 빠를 수 있다.In step S1503, the companion robot 10 may display different contents according to health, affection, and intelligence indices, and may be subject to activity restrictions. For example, when the health index is low, the operating time of the companion robot 10 may be limited. That is, the operating time of the companion robot 10 having a high health index may be long. In more detail, the fighting-type companion robot 10 may have a short overall operation time or a slow or stop operation if the health index is low during the provided fighting game. In the case of the companion robot 10 having a high health index, the operation time may be increased and the operation speed may be faster than the companion robot 10 having a low health index.

단계 S1504에서 반려 로봇(10)은 관리자가 태스크(task) 또는 미션을 부여할 수 있고, 태스크 또는 미션 수행 시에 따른 보상을 제공할 수 있다. 예컨대 반려 로봇(10)은 보호자(관리자)가 반려 로봇(10)의 사용자인 자녀에게 숙제 또는 할 일을 제공하고 보상여부를 설정할 수 있다.In step S1504, the companion robot 10 may be assigned a task or mission by an administrator, and may provide a reward according to the performance of the task or mission. For example, in the companion robot 10 , a guardian (administrator) may provide homework or work to a child who is a user of the companion robot 10 and set whether to compensate.

단계 S1505에서 반려 로봇(10)은 성공적으로 수행한 미션에 대해 보상을 제공한다. 예컨대, 반려 로봇(10)은 아이(사용자)가 미션을 제대로 수행하면 보상을 제공할 수 있다. 반려 로봇(10)은 보상을 칭찬 스티커를 제공할 수 있고, 칭찬 스티커는 상점에서 성장을 위한 다른 아이템으로 교환할 수 있다.In step S1505, the companion robot 10 provides a reward for a mission successfully performed. For example, the companion robot 10 may provide a reward when a child (user) performs a mission properly. The companion robot 10 may provide a reward as a praise sticker, and the praise sticker may be exchanged for other items for growth in the store.

단계 S1506에서 반려 로봇(10)은 머리모듈을 코딩 플랫폼과 연결하여 몸통모듈을 구동하거나 다른 구동체를 구동할 수 있다.In step S1506, the companion robot 10 may connect the head module with the coding platform to drive the body module or other driving bodies.

한편 도시하지는 않았으나, 본 발명의 실시예에 의한 반려 로봇(10)은 다양한 통신 수단을 통해 사용자의 휴대용 전자기기와 전기적으로 연결될 수 있으며, 또한 인터넷과 연동하여 서버 또는 타인의 휴대용 전자기기에 연결될 수도 있다. 이와 달리 유선 또는 무선(와이파이, 블루투스 등) 연결을 통해 타인의 전자기기와 직접 전기적으로 연결되는 것도 가능하다.Meanwhile, although not shown, the companion robot 10 according to an embodiment of the present invention may be electrically connected to a user's portable electronic device through various communication means, and may also be connected to a server or another's portable electronic device by interworking with the Internet. have. Alternatively, it is also possible to be directly electrically connected to another's electronic device through a wired or wireless (Wi-Fi, Bluetooth, etc.) connection.

사용자는 본인이 돌보는 반려 로봇(10)의 성장 정도나 외형 형태 등을 웹을 통해 외부의 제3자에게 공개되도록 할 수 있고, 또한 웹을 이용한 모션 에디팅 기능 등이 이루어질 수도 있다. 반려 로봇(10)은 사용자와의 교감 정도, 아이템 보유 현황, 및 각종 평가 지수(건강, 애정, 지능 지수 등)를 이용하여 점수 또는 레벨을 부여받을 수 있으며, 이러한 점수 또는 레벨은 사용자의 선택에 따라 앱에 표시되거나, 또는 웹을 통해 외부의 제3자에게 공개되도록 할 수 있다. 이를 통해 사용자는 다른 사용자와의 정보 공유나 경쟁을 통해 돌봄 감성을 자극받을 수 있다.The user may disclose the growth level or external shape of the companion robot 10 that he or she takes care of to an external third party through the web, and also a motion editing function using the web may be implemented. The companion robot 10 may be given a score or level using the degree of communion with the user, item possession status, and various evaluation indices (health, affection, intelligence index, etc.), and these scores or levels depend on the user's selection. Accordingly, it can be displayed on the app or disclosed to an external third party through the web. Through this, the user can be stimulated by caring emotions through information sharing or competition with other users.

또한, 사용자는 반려 로봇(10)과의 교감 정도나 돌봄 활동에 따라 화폐 개념의 가상 개체를 획득할 수 있다. 이와 달리 사용자는 현금 지급 등의 방법으로 이러한 가상 개체를 획득하는 것도 가능하다. 사용자는 가상 개체를 이용하여 반려 로봇(10)에 필요한 아이템이나 컨텐츠를 구매할 수 있다. 이 컨텐츠는 예컨대 반려 로봇(10)의 성장이나 학습, 놀이 등에 필요한 정보일 수 있다.In addition, the user may acquire a virtual object of a currency concept according to a degree of communion with the companion robot 10 or a caring activity. Alternatively, the user may obtain such a virtual object by means of cash payment or the like. A user may purchase an item or content necessary for the companion robot 10 by using the virtual object. This content may be, for example, information necessary for growth, learning, and play of the companion robot 10 .

전술한 본 발명의 실시예에 따른 방법은 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 기록매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능한 기록매체에 기록되는 프로그램 명령은 본 발명의 실시예를 위하여 특별히 설계되고 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용가능한 것일 수 있다. 컴퓨터 판독 가능한 기록매체는, 하드디스크, 플로피디스크, 자기테이프 등의 자기기록 매체, CD-ROM, DVD 등의 광기록 매체, 플롭티컬디스크 등의 자기-광 매체, ROM, RAM, 플래시 메모리 등과 같이, 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어를 포함한다. 프로그램 명령은, 컴파일러에 의해 만들어지는 기계어 코드, 인터프리터를 사용하여 컴퓨터에서 실행될 수 있는 고급언어 코드를 포함한다. 하드웨어는 본 발명에 따른 방법을 처리하기 위하여 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있고, 그 역도 마찬가지이다.The above-described method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the embodiment of the present invention, or may be known and available to those skilled in the art of computer software. The computer-readable recording medium includes a magnetic recording medium such as a hard disk, a floppy disk, and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, a magneto-optical medium such as a floppy disk, a ROM, a RAM, a flash memory, etc. , including hardware configured to store and execute program instructions. Program instructions include machine code generated by a compiler and high-level language code that can be executed in a computer using an interpreter. The hardware may be configured to act as one or more software modules for processing the method according to the invention, and vice versa.

본 발명의 실시예에 따른 방법은 프로그램 명령 형태로 전자장치에서 실행될 수 있다. 전자장치는 스마트폰이나 스마트패드 등의 휴대용 통신 장치, 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 가전 장치를 포함한다.The method according to an embodiment of the present invention may be executed in the electronic device in the form of a program instruction. The electronic device includes a portable communication device such as a smart phone or a smart pad, a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, and a home appliance device.

본 발명의 실시예에 따른 방법은 컴퓨터 프로그램 제품에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 기록매체의 형태로, 또는 어플리케이션 스토어를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.A method according to an embodiment of the present invention may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a device-readable recording medium or online through an application store. In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

본 발명의 실시예에 따른 구성요소, 예컨대 모듈 또는 프로그램 각각은 단수 또는 복수의 서브 구성요소로 구성될 수 있으며, 이러한 서브 구성요소들 중 일부 서브 구성요소가 생략되거나, 또는 다른 서브 구성요소가 더 포함될 수 있다. 일부 구성요소들(모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 본 발명의 실시예에 따른 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components, for example, a module or a program, according to an embodiment of the present invention may be composed of a single or a plurality of sub-components, and some sub-components of these sub-components may be omitted, or other sub-components may be added. may be included. Some components (modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. Operations performed by a module, program, or other component according to an embodiment of the present invention are sequentially, parallel, repetitively or heuristically executed, or at least some operations are executed in a different order, are omitted, or other operations are added. can be

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.

10: 반려 로봇
100: 머리모듈
110: 입력부
120: 판단부
130: 인터랙션 저장부
140: 제1 출력부
150: 스킨부
200: 몸통모듈
201: 꼬리부
210: 제2 출력부
220: 펜부
10: companion robot
100: head module
110: input unit
120: judgment unit
130: interaction storage unit
140: first output unit
150: skin part
200: body module
201: tail
210: second output unit
220: pen unit

Claims (10)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 사용자의 돌봄 감성을 자극하는 반려 로봇으로서, 머리모듈과 몸통모듈을 가지며,
상기 머리모듈은,
환경정보와, 사용자의 위치 및 근접 여부를 입력받는 입력부;
상기 입력부에서 입력받은 환경정보, 사용자의 위치 정보 및 근접 횟수 정보를 통해 로봇에 대한 사용자의 의도를 판단하는 판단부;
상기 판단부에서 판단한 사용자의 의도에 대응하는 복수의 시나리오가 내장된 인터랙션 저장부; 및
상기 인터랙션 저장부의 시나리오에 대응하는 정보를 출력하는 제1 출력부를 포함하고,
상기 몸통모듈은,
상기 인터랙션 저장부의 시나리오에 대응하여 동작하는 제2 출력부; 및
상기 제2 출력부의 가감속에 따라 지면과 접촉 상태 또는 비접촉 상태를 이루며, 상기 접촉 상태와 상기 비접촉 상태의 절환을 통해 비연속적 선그리기가 수행되는 펜부를 포함하고,
상기 머리모듈과 상기 몸통모듈은 접촉패드를 통해 배선없이 전기적으로 연결가능하고, 상기 제1 출력부 및 상기 제2 출력부를 통해 로봇의 감정이 표현되는 것을 특징으로 하는,
반려 로봇.
As a companion robot that stimulates the user's caring sensibility, it has a head module and a body module,
The head module,
an input unit for receiving environmental information and a user's location and proximity;
a determination unit for determining the user's intention toward the robot based on the environment information received from the input unit, the user's location information, and the proximity number information;
an interaction storage unit having a plurality of built-in scenarios corresponding to the user's intention determined by the determination unit; and
and a first output unit for outputting information corresponding to the scenario of the interaction storage unit,
The body module,
a second output unit operating in response to the scenario of the interaction storage unit; and
and a pen unit that makes contact or non-contact with the ground according to the acceleration/deceleration of the second output unit, and performs discontinuous line drawing through switching between the contact state and the non-contact state,
The head module and the body module are electrically connectable without wiring through a contact pad, characterized in that the emotion of the robot is expressed through the first output unit and the second output unit,
companion robot.
제7항에 있어서,
상기 제2 출력부는 가감속을 통해 상기 몸통모듈이 지면과 이루는 각도를 변화시키는 것을 특징으로 하는,
반려 로봇.
8. The method of claim 7,
The second output unit, characterized in that through acceleration and deceleration to change the angle formed by the body module with the ground,
companion robot.
삭제delete 제7항에 있어서,
상기 머리모듈과 상기 몸통모듈의 무게 밸런스를 유지하기 위해 접힘이 가능한 꼬리부를 더 포함하는 것을 특징으로 하는,
반려 로봇.
8. The method of claim 7,
In order to maintain the weight balance of the head module and the body module, it characterized in that it further comprises a foldable tail portion,
companion robot.
KR1020200146599A 2020-11-05 2020-11-05 Companion robot KR102415997B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200146599A KR102415997B1 (en) 2020-11-05 2020-11-05 Companion robot
PCT/KR2020/015743 WO2022097801A1 (en) 2020-11-05 2020-11-11 Companion robot stimulating care emotion in user
KR1020220065859A KR102537434B1 (en) 2020-11-05 2022-05-30 Companion robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146599A KR102415997B1 (en) 2020-11-05 2020-11-05 Companion robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220065859A Division KR102537434B1 (en) 2020-11-05 2022-05-30 Companion robot

Publications (2)

Publication Number Publication Date
KR20220077938A KR20220077938A (en) 2022-06-10
KR102415997B1 true KR102415997B1 (en) 2022-07-05

Family

ID=81456779

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200146599A KR102415997B1 (en) 2020-11-05 2020-11-05 Companion robot
KR1020220065859A KR102537434B1 (en) 2020-11-05 2022-05-30 Companion robot

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220065859A KR102537434B1 (en) 2020-11-05 2022-05-30 Companion robot

Country Status (2)

Country Link
KR (2) KR102415997B1 (en)
WO (1) WO2022097801A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001097198A1 (en) 2000-06-13 2001-12-20 Bahn Jee Lola Tan An educational device
KR200277579Y1 (en) * 2002-01-23 2002-06-15 (주)로보옵틱스 Mobile robot
US20070270074A1 (en) 2005-01-18 2007-11-22 Aochi Yuichi Robot Toy

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020051642A (en) 2000-12-23 2002-06-29 이대일 Multimedia display device using doll
KR20020061332A (en) * 2001-01-16 2002-07-24 사성동 method of breeding robot pet using on-line and off-line systems simulaneously
KR101119030B1 (en) * 2010-05-12 2012-03-13 (주) 퓨처로봇 Method of for editing scenario of intelligent robot and computer readable medium thereof, intelligent robot device and service method of intelligent robot
JP2012056001A (en) * 2010-09-08 2012-03-22 Fit:Kk Robot control system
KR20130104076A (en) * 2012-03-12 2013-09-25 최광호 Method for breeding a pet robot using a mobile terminal
KR101954610B1 (en) 2016-11-29 2019-03-06 한국기술교육대학교 산학협력단 Communion robot system for senior citizen
CN107030691B (en) * 2017-03-24 2020-04-14 华为技术有限公司 Data processing method and device for nursing robot
KR102228866B1 (en) * 2018-10-18 2021-03-17 엘지전자 주식회사 Robot and method for controlling thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001097198A1 (en) 2000-06-13 2001-12-20 Bahn Jee Lola Tan An educational device
KR200277579Y1 (en) * 2002-01-23 2002-06-15 (주)로보옵틱스 Mobile robot
US20070270074A1 (en) 2005-01-18 2007-11-22 Aochi Yuichi Robot Toy

Also Published As

Publication number Publication date
WO2022097801A1 (en) 2022-05-12
KR20220077938A (en) 2022-06-10
KR102537434B1 (en) 2023-05-31
KR20220081319A (en) 2022-06-15

Similar Documents

Publication Publication Date Title
Wood et al. Developing kaspar: a humanoid robot for children with autism
Salichs et al. Mini: a new social robot for the elderly
La Delfa et al. Drone chi: Somaesthetic human-drone interaction
Beran et al. Understanding how children understand robots: Perceived animism in child–robot interaction
US10864453B2 (en) Automatic mobile robot for facilitating activities to improve child development
McColl et al. Brian 2.1: A socially assistive robot for the elderly and cognitively impaired
US10176725B2 (en) System and method of pervasive developmental disorder interventions
Ihamäki et al. Robot pets as “serious toys”-activating social and emotional experiences of elderly people
CN107077229A (en) human-machine interface device and system
Dimas et al. Pervasive pleo: long-term attachment with artificial pets
Pons et al. Remote interspecies interactions: Improving humans and animals’ wellbeing through mobile playful spaces
US8371897B1 (en) Vision technology for interactive toys
Katsuno et al. Haptic creatures: tactile affect and human-robot intimacy in Japan
KR102415997B1 (en) Companion robot
Cooney et al. Designing robots for well-being: theoretical background and visual scenes of affectionate play with a small humanoid robot
Lee et al. Semi-autonomous robot avatar as a medium for family communication and education
Ranjkar et al. Design, fabrication, and evaluation of the “Maya” social robot
Aylett Games robots play: once more, with feeling
Gonçalves et al. Human-driven multi-robot design process for social interactions with children on complex environments
Burleson et al. Sprock-it: a physically interactive play system
Taheri et al. Virtual social toys: a novel concept to bring inanimate dolls to life
Desai Embodied intuitive interaction in children
CHAIKITTIWANICH et al. WASH-E: Designing personality for futuristic washing machine
Mahdi Developing a Semi-autonomous Robot to Engage Children with Special Needs and Their Peers in Robot-Assisted Play
Zhou et al. 'My lollipop dropped...'–Probing Design Opportunities for SEL Agents through Children's Peer Co-Creation of Social-Emotional Stories

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant