KR20200116185A - Pet robot equipped with artificial intelligence - Google Patents

Pet robot equipped with artificial intelligence Download PDF

Info

Publication number
KR20200116185A
KR20200116185A KR1020190028748A KR20190028748A KR20200116185A KR 20200116185 A KR20200116185 A KR 20200116185A KR 1020190028748 A KR1020190028748 A KR 1020190028748A KR 20190028748 A KR20190028748 A KR 20190028748A KR 20200116185 A KR20200116185 A KR 20200116185A
Authority
KR
South Korea
Prior art keywords
robot
pet robot
artificial intelligence
module
pet
Prior art date
Application number
KR1020190028748A
Other languages
Korean (ko)
Other versions
KR102293332B1 (en
Inventor
류병철
박창현
Original Assignee
주식회사 티오이십일콤즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 티오이십일콤즈 filed Critical 주식회사 티오이십일콤즈
Priority to KR1020190028748A priority Critical patent/KR102293332B1/en
Publication of KR20200116185A publication Critical patent/KR20200116185A/en
Application granted granted Critical
Publication of KR102293332B1 publication Critical patent/KR102293332B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K5/00Feeding devices for stock or game ; Feeding wagons; Feeding stacks
    • A01K5/02Automatic devices
    • A01K5/0275Automatic devices with mechanisms for delivery of measured doses
    • A01K5/0283Automatic devices with mechanisms for delivery of measured doses by weight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/12Programme-controlled manipulators characterised by positioning means for manipulator elements electric
    • B25J9/126Rotary actuators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Birds (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Toys (AREA)

Abstract

The present invention relates to a pet robot equipped with artificial intelligence, which comprises: a robot body including an upper housing and a lower housing forming an outer shape of a robot and coupled to each other; a surrounding situation recognition module which generates information about a surrounding situation of the robot through a plurality of sensors; a display module which reproduces an image or a video related to emotion of the robot; a driving module which drives the robot; a power supply module including a battery for supplying power to the robot and a charger for charging the battery; and a control module which learns surrounding situation information and controls operation of the robot regarding object recognition and emotion expression. One embodiment of the present invention is to provide the pet robot equipped with artificial intelligence which allows a companion animal to be safely cared for and confirmed remotely in real time even when an owner is absent.

Description

인공지능이 구비된 펫 로봇{PET ROBOT EQUIPPED WITH ARTIFICIAL INTELLIGENCE}Pet robot equipped with artificial intelligence {PET ROBOT EQUIPPED WITH ARTIFICIAL INTELLIGENCE}

본 발명은 반려동물을 위한 로봇 기술에 관한 것으로, 보다 상세하게는 외출한 경우에도 주인이 없는 경우에도 반려동물을 안전하게 돌볼 수 있고 원격을 통해 실시간으로 확인할 수 있는 인공지능이 구비된 펫 로봇에 관한 것이다.The present invention relates to a robot technology for companion animals, and more particularly, to a pet robot equipped with artificial intelligence that can safely take care of companion animals even when they go out or when there is no owner, and can check in real time through a remote. will be.

산업이 고도로 발달하고 생활이 윤택해 지면서 정서함양 등의 목적으로 반려동물을 사육하는 가구가 늘어나고 반려동물에 대한 관심이 고조되어 왔다. 반려동물에 대한 사육 가구의 수가 증가함에 따라 사육에서의 관리 및 통제 부주의로 인한 문제도 함께 증가하고 있다. 이에 따라, 관리 부재의 부작용을 줄이기 위해 반려동물 관리를 지원할 수 있는 로봇에 대한 개발이 요구되고 있다.As the industry has been highly developed and life has been enriched, the number of households raising companion animals for the purpose of enhancing emotions has increased, and interest in companion animals has increased. As the number of breeding households for companion animals increases, problems due to negligence in management and control in breeding are also increasing. Accordingly, there is a need to develop a robot that can support companion animal management in order to reduce side effects of the management member.

한국공개특허 제10-2008-0094117(2008.10.23)호는 반려동물 관리 시스템 및 그 방법에 관한 것으로, 반려동물에 부착된 태그를 인식한 단말기로부터 단말기의 식별정보와 상기 태그의 식별정보를 수신하고, 태그의 식별정보에 해당하는 반려동물 관리정보를 데이터베이스에서 검색하고, 태그의 식별정보를 기초로 상기 검색된 반려동물 관리정보 중 제공할 정보범위를 결정한 후 결정된 정보범위 내의 반려동물 관리정보를 단말기로 제공하는 기술을 개시하고 있다.Korean Patent Laid-Open Publication No. 10-2008-0094117 (2008.10.23) relates to a companion animal management system and method thereof, and receives the identification information of the terminal and the identification information of the tag from the terminal that recognizes the tag attached to the companion animal. And, after searching the database for companion animal management information corresponding to the identification information of the tag, determining the range of information to be provided among the searched companion animal management information based on the identification information of the tag, the terminal provides the companion animal management information within the determined information range. It discloses the technology provided by.

한국공개특허 제10-2014-0146806(2014.12.29)호는 반려동물 관리 장치 및 이를 이용한 관리 방법에 관한 것으로, 단말기에 설치된 애플리케이션의 실행을 통해 사전에 입력된 반려동물의 각종정보, 예방접종일 및 각종 스케줄 등을 음성으로 출력할 수 있도록 함으로써 해당 스케줄을 잊어버리지 않고 원활하게 수행할 수 있고, 외부에서도 집안에 있는 반려동물을 보살필 수 있으며, 반려동물의 분실시 주위 사람들에게 분실 여부를 확실하게 표시해줄 수 있는 기술을 개시하고 있다.Korean Patent Publication No. 10-2014-0146806 (2014.12.29) relates to a companion animal management device and a management method using the same, and various information of companion animals entered in advance through execution of an application installed on the terminal, and vaccination date. And various schedules, etc., can be performed smoothly without forgetting the schedule, and can take care of the companion animal in the house from outside. A technology that can be displayed in a manner is disclosed.

한국공개특허 제10-2008-0094117(2008.10.23)호Korean Patent Publication No. 10-2008-0094117 (2008.10.23) 한국공개특허 제10-2014-0146806(2014.12.29)호Korean Patent Publication No. 10-2014-0146806 (2014.12.29)

본 발명의 일 실시예는 외출한 경우에도 주인이 없는 경우에도 반려동물을 안전하게 돌볼 수 있고 원격을 통해 실시간으로 확인할 수 있는 인공지능이 구비된 펫 로봇을 제공하고자 한다.An embodiment of the present invention is to provide a pet robot equipped with artificial intelligence that can safely take care of a companion animal even when the owner is out and can check in real time through a remote location.

본 발명의 일 실시예는 학습된 인공지능을 활용하여 펫 로봇의 감정을 표출하고 감정에 따른 행동을 제어할 수 있는 인공지능이 구비된 펫 로봇을 제공하고자 한다.An embodiment of the present invention is to provide a pet robot equipped with artificial intelligence capable of expressing emotions of a pet robot using learned artificial intelligence and controlling behaviors according to emotions.

본 발명의 일 실시예는 학습된 인공지능을 활용하여 객체를 인식하고 인식된 객체와의 친밀도 및 주변 상황을 기초로 감정, 생각 및 동작을 표출할 수 있는 인공지능이 구비된 펫 로봇을 제공하고자 한다.An embodiment of the present invention is to provide a pet robot equipped with artificial intelligence capable of recognizing an object using learned artificial intelligence and expressing emotions, thoughts, and movements based on intimacy with the recognized object and surrounding situations. do.

본 발명의 일 실시예는 원격 제어를 위한 리모트 컨트롤러를 내부에 구비하여 학습된 인공지능을 기초로 외부 시스템에 대한 원격 제어를 효과적으로 지원할 수 있는 인공지능이 구비된 펫 로봇을 제공하고자 한다.An embodiment of the present invention is to provide a pet robot equipped with artificial intelligence capable of effectively supporting remote control of an external system based on learned artificial intelligence by having a remote controller for remote control therein.

실시예들 중에서, 인공지능이 구비된 펫 로봇은 로봇의 외형을 이루고 서로 결합되는 상부 하우징 및 하부 하우징을 포함하는 로봇 바디, 상기 로봇 바디의 내부에 배치되어 복수의 센서들을 통해 상기 로봇의 주변 상황 정보를 생성하는 주변 상황 인지 모듈, 상기 상부 하우징의 외부에 배치되어 상기 로봇의 감정에 관한 이미지 또는 영상을 재생하는 디스플레이 모듈, 상기 하부 하우징의 바닥면에 배치되어 상기 로봇을 운행하는 구동 모듈, 상기 하부 하우징의 내부에 배치되고, 상기 로봇에 전원을 공급하는 배터리(battery) 및 상기 배터리를 충전시키는 충전기를 포함하는 전원 공급 모듈 및 상기 로봇 바디의 내부에 배치되고, 상기 주변 상황 정보를 학습하여 객체 인식 및 감정 표현에 관한 상기 로봇의 동작을 제어하는 제어 모듈을 포함한다.Among the embodiments, a pet robot with artificial intelligence is a robot body including an upper housing and a lower housing that form the outer shape of the robot and are coupled to each other, and the surrounding situation of the robot through a plurality of sensors disposed inside the robot body. A peripheral situation recognition module that generates information, a display module that is disposed outside the upper housing and plays an image or image related to the emotion of the robot, a driving module disposed on the bottom of the lower housing to drive the robot, the A power supply module disposed inside the lower housing and including a battery supplying power to the robot and a charger charging the battery, and disposed inside the robot body, and learning the surrounding situation information to an object And a control module that controls the robot's motion related to recognition and expression of emotions.

상기 펫 로봇은 상기 상부 하우징의 내부에 배치되고, 상기 로봇 바디의 외부에 노출되어 사료를 제공하는 급식 모듈을 더 포함하고, 상기 급식 모듈은 상기 사료를 저장하는 사료통, 상기 사료를 상기 로봇 바디의 외부로 노출시키는 급식통 및 상기 사료통의 하단부에 배치되어 특정 용량의 사료를 상기 급식통으로 분배하는 분배기를 포함할 수 있다.The pet robot further includes a feeding module disposed inside the upper housing and exposed to the outside of the robot body to provide feed, wherein the feeding module is a feed container storing the feed, and the feed is stored in the robot body. It may include a feeder to be exposed to the outside and a distributor disposed at the lower end of the feeder to distribute feed of a specific capacity to the feeder.

상기 구동 모듈은 상기 로봇 바디를 운행하는 복수의 바퀴들 및 상기 복수의 바퀴들 중 적어도 하나를 회전시키는 구동 모터를 포함할 수 있다.The driving module may include a plurality of wheels for driving the robot body and a driving motor for rotating at least one of the plurality of wheels.

상기 제어 모듈은 인식된 객체와의 친밀도에 따라 복수의 감정 카테고리들 중 어느 하나를 결정하고 상기 주변 상황 정보를 기초로 산출되는 감정 지수에 따라 해당 감정 카테고리에 포함된 복수의 감정 단계들 중 어느 하나를 상기 로봇의 최종 감정으로서 결정하여 상기 로봇의 동작을 제어할 수 있다.The control module determines any one of a plurality of emotion categories according to intimacy with the recognized object, and any one of a plurality of emotion steps included in the corresponding emotion category according to an emotion index calculated based on the surrounding situation information. Is determined as the final emotion of the robot to control the operation of the robot.

상기 제어 모듈은 인식된 객체와의 친밀도 및 상기 주변 상황 정보를 기초로 복수의 행동 패턴들 중 어느 하나를 결정하여 해당 행동 패턴에 따라 상기 로봇의 동작을 제어할 수 있다.The control module may determine any one of a plurality of behavior patterns based on the intimacy with the recognized object and the surrounding situation information and control the operation of the robot according to the corresponding behavior pattern.

상기 제어 모듈은 상기 해당 행동 패턴이 댄스(dance)인 경우 상기 로봇의 위치를 포함하는 댄스 영역을 결정하고 상기 댄스 영역 내에서 위치 좌표와 댄스 모션(motion)으로 정의되는 춤 동작을 생성하여 상기 춤 동작에 따라 상기 로봇의 동작을 제어할 수 있다.When the corresponding behavior pattern is dance, the control module determines a dance area including the position of the robot, and generates a dance movement defined by position coordinates and a dance motion within the dance area. It is possible to control the operation of the robot according to the operation.

상기 펫 로봇은 상기 상부 하우징의 외부에 배치되어 적어도 하나의 외부 시스템에 관한 동작을 원격으로 제어하는 원격 컨트롤(remote control) 모듈을 더 포함할 수 있다.The pet robot may further include a remote control module disposed outside the upper housing to remotely control an operation of at least one external system.

상기 제어 모듈은 상기 적어도 하나의 외부 시스템에 관한 원격 제어 요청을 수신한 경우 해당 외부 시스템에 관해 학습된 원격 제어 영역으로 상기 로봇의 이동을 제어할 수 있다.When receiving a remote control request for the at least one external system, the control module may control movement of the robot to a remote control area learned about the corresponding external system.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology can have the following effects. However, since it does not mean that a specific embodiment should include all of the following effects or only the following effects, it should not be understood that the scope of the rights of the disclosed technology is limited thereby.

본 발명의 일 실시예에 따른 인공지능이 구비된 펫 로봇은 학습된 인공지능을 활용하여 펫 로봇의 감정을 표출하고 감정에 따른 행동을 제어할 수 있다.The pet robot equipped with artificial intelligence according to an embodiment of the present invention may express emotions of the pet robot and control behaviors according to emotions using the learned artificial intelligence.

본 발명의 일 실시예에 따른 인공지능이 구비된 펫 로봇은 학습된 인공지능을 활용하여 객체를 인식하고 인식된 객체와의 친밀도 및 주변 상황을 기초로 감정, 생각 및 동작을 표출할 수 있다.The pet robot equipped with artificial intelligence according to an embodiment of the present invention may recognize an object using the learned artificial intelligence, and express emotions, thoughts, and actions based on intimacy with the recognized object and surrounding situations.

본 발명의 일 실시예에 따른 인공지능이 구비된 펫 로봇은 원격 제어를 위한 리모트 컨트롤러를 내부에 구비하여 학습된 인공지능을 기초로 외부 시스템에 대한 원격 제어를 효과적으로 지원할 수 있다.A pet robot equipped with artificial intelligence according to an embodiment of the present invention can effectively support remote control of an external system based on the learned artificial intelligence by having a remote controller for remote control therein.

도 1은 본 발명의 일 실시예에 따른 반려동물 관리 시스템을 설명하는 도면이다.
도 2는 도 1에 있는 펫 로봇의 기본적인 시스템 구성을 설명하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 펫 로봇의 물리적 또는 기능적 구성을 설명하는 블록도이다.
도 4는 도 1에 있는 펫 로봇에서 수행되는 인공지능에 기반하여 펫의 동작을 제어하는 과정의 일 실시예를 설명하는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 펫 로봇을 나타내는 도면이다.
1 is a diagram illustrating a companion animal management system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a basic system configuration of the pet robot in FIG. 1.
3 is a block diagram illustrating a physical or functional configuration of a pet robot according to an embodiment of the present invention.
4 is a flowchart illustrating an embodiment of a process of controlling a pet's motion based on artificial intelligence performed by the pet robot of FIG. 1.
5 is a view showing a pet robot according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiments can be variously changed and have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only those effects, the scope of the present invention should not be understood as being limited thereto.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from other components, and the scope of rights is not limited by these terms. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" to another component, it should be understood that although it may be directly connected to the other component, another component may exist in the middle. On the other hand, when it is mentioned that a certain component is "directly connected" to another component, it should be understood that no other component exists in the middle. On the other hand, other expressions describing the relationship between the constituent elements, that is, "between" and "just between" or "neighboring to" and "directly neighboring to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions are to be understood as including plural expressions unless the context clearly indicates otherwise, and terms such as “comprise” or “have” refer to implemented features, numbers, steps, actions, components, parts, or It is to be understood that it is intended to designate that a combination exists and does not preclude the presence or addition of one or more other features or numbers, steps, actions, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (for example, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step has a specific sequence clearly in context. Unless otherwise stated, it may occur differently from the stated order. That is, each of the steps may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable codes on a computer-readable recording medium, and the computer-readable recording medium includes all types of recording devices storing data that can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. Further, the computer-readable recording medium is distributed over a computer system connected by a network, so that the computer-readable code can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the field to which the present invention belongs, unless otherwise defined. Terms defined in commonly used dictionaries should be construed as having meanings in the context of related technologies, and cannot be construed as having an ideal or excessive formal meaning unless explicitly defined in the present application.

도 1은 본 발명의 일 실시예에 따른 반려동물 관리 시스템을 설명하는 도면이다.1 is a diagram illustrating a companion animal management system according to an embodiment of the present invention.

도 1을 참조하면, 반려동물 관리 시스템(100)은 사용자 단말(110), 펫 로봇(130) 및 반려동물(150)을 포함할 수 있다.Referring to FIG. 1, the companion animal management system 100 may include a user terminal 110, a pet robot 130, and a companion animal 150.

사용자 단말(110)은 펫 로봇(130)의 동작을 원격으로 확인하거나 제어할 수 있는 컴퓨팅 장치에 해당하고 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 사용자 단말(110)은 펫 로봇(130)과 네트워크를 통해 연결될 수 있고, 복수의 사용자 단말(110)들은 펫 로봇(130)과 동시에 연결될 수 있다.The user terminal 110 corresponds to a computing device capable of remotely checking or controlling the operation of the pet robot 130 and may be implemented as a smartphone, a laptop computer, or a computer, but is not necessarily limited thereto, and various devices such as a tablet PC It can also be implemented as The user terminal 110 may be connected to the pet robot 130 through a network, and the plurality of user terminals 110 may be connected to the pet robot 130 at the same time.

펫 로봇(130)은 반려동물(150)의 관리를 지원할 수 있는 인공지능을 구비한 로봇에 해당할 수 있다. 펫 로봇(130)은 인공지능을 구비하여 복수의 센서들로부터 수집된 주변 상황에 관한 정보들을 학습할 수 있다. 펫 로봇(130)은 수집된 정보를 기초로 학습에 사용될 수 있는 학습 데이터로의 가공을 수행할 수 있다. 예를 들어, 펫 로봇(130)은 데이터 가공을 위한 전처리(preprocessing)를 통해 데이터 분석 또는 마이그레이션(migration) 등을 수행할 수 있다. The pet robot 130 may correspond to a robot equipped with artificial intelligence capable of supporting management of the companion animal 150. The pet robot 130 may be equipped with artificial intelligence to learn information on surrounding conditions collected from a plurality of sensors. The pet robot 130 may perform processing into learning data that can be used for learning based on the collected information. For example, the pet robot 130 may perform data analysis or migration through preprocessing for data processing.

일 실시예에서, 펫 로봇(130)은 동작 제어를 위해 필요에 따라 복수의 독립된 학습 모델들을 생성할 수 있다. 펫 로봇(130)은 학습 모델을 기초로 주변 객체를 인식할 수 있고, 인식된 객체와의 친밀도를 결정할 수 있으며, 친밀도에 따른 감정을 표현하거나 또는 행동을 표출하도록 구현될 수 있다. 여기에서, 펫 로봇(130)의 감정은 기쁨, 슬픔, 아픔, 우울, 행복, 졸림, 배고픔 등을 포함할 수 있고, 유사한 복수의 감정들은 상위 개념의 감정 카테고리로 분류될 수 있다.In one embodiment, the pet robot 130 may generate a plurality of independent learning models as needed for motion control. The pet robot 130 may recognize surrounding objects based on a learning model, determine intimacy with the recognized object, and may be implemented to express emotions or behaviors according to intimacy. Here, the emotion of the pet robot 130 may include joy, sadness, pain, depression, happiness, sleepiness, hunger, and the like, and a plurality of similar emotions may be classified into an emotion category of a higher concept.

반려동물(150)은 사람과 더불어 사는 동물에 해당할 수 있고, 동물이 인간에게 제공하는 여러 혜택을 존중하여 사람의 장난감이 아닌 더불어 살아가는 존재로서 인정될 수 있다. 반려동물(150)은 대표적인 예로 개와 고양이를 포함할 수 있지만, 반드시 이에 해당하지 않고, 사람과 함께 살아갈 수 있는 다양한 동물들을 포함할 수 있다.The companion animal 150 may correspond to an animal that lives with a person, and respects various benefits provided by the animal to humans, and may be recognized as a person living with a person rather than a toy of a person. The companion animal 150 may include dogs and cats as representative examples, but not necessarily, and may include various animals capable of living with humans.

도 2는 도 1에 있는 펫 로봇의 기본적인 시스템 구성을 설명하는 도면이다.FIG. 2 is a diagram illustrating a basic system configuration of the pet robot in FIG. 1.

도 2를 참조하면, 펫 로봇(130)은 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함할 수 있다.Referring to FIG. 2, the pet robot 130 may include a processor 210, a memory 230, a user input/output unit 250, and a network input/output unit 270.

프로세서(210)는 반려동물(150)에 대한 관리를 지원하는 펫 로봇(130)의 다양한 동작을 제어하는 각 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 펫 로봇(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 펫 로봇(130)의 CPU(Central Processing Unit)로 구현될 수 있다.The processor 210 can execute each procedure for controlling various operations of the pet robot 130 that supports management of the companion animal 150, and manages the memory 230 that is read or written throughout the process. In addition, a synchronization time between the volatile memory and the nonvolatile memory in the memory 230 may be scheduled. The processor 210 can control the overall operation of the pet robot 130, and is electrically connected to the memory 230, the user input/output unit 250, and the network input/output unit 270 to control the data flow between them. have. The processor 210 may be implemented as a CPU (Central Processing Unit) of the pet robot 130.

메모리(230)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 펫 로봇(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.The memory 230 may include an auxiliary memory device that is implemented as a nonvolatile memory such as a solid state disk (SSD) or a hard disk drive (HDD) and is used to store all data required for the pet robot 130, and RAM A main memory device implemented with volatile memory such as (Random Access Memory) may be included.

사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 펫 로봇(130)은 서버로서 수행될 수 있다.The user input/output unit 250 may include an environment for receiving a user input and an environment for outputting specific information to a user. For example, the user input/output unit 250 may include an input device including an adapter such as a touch pad, a touch screen, an on-screen keyboard, or a pointing device, and an output device including an adapter such as a monitor or a touch screen. In one embodiment, the user input/output unit 250 may correspond to a computing device connected through a remote connection, and in such a case, the pet robot 130 may be performed as a server.

네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.The network input/output unit 270 includes an environment for connecting to an external device or system through a network, and includes, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), and a VAN ( Value Added Network) may include an adapter for communication.

도 3은 본 발명의 일 실시예에 따른 펫 로봇의 물리적 또는 기능적 구성을 설명하는 블록도이다.3 is a block diagram illustrating a physical or functional configuration of a pet robot according to an embodiment of the present invention.

도 3을 참조하면, 펫 로봇(130)은 로봇 바디(310)를 포함하여 구현될 수 있고, 로봇 바디(310)는 물리적 형상을 가진 상부 하우징(311)과 하부 하우징(313)이 서로 결합함으로써 펫 로봇(130)의 전체 외형을 형성할 수 있다. 펫 로봇(130)은 상부 하우징(311)의 내부에 디스플레이 모듈(320), 급식 모듈(330) 및 원격 컨트롤 모듈(340)을 포함할 수 있고, 하부 하우징(313)의 내부에 구동 모듈(370) 및 전원 공급 모듈(380)을 포함할 수 있다. Referring to FIG. 3, the pet robot 130 may be implemented including a robot body 310, and the robot body 310 may be formed by combining an upper housing 311 and a lower housing 313 having a physical shape. The overall appearance of the pet robot 130 may be formed. The pet robot 130 may include a display module 320, a feeding module 330, and a remote control module 340 inside the upper housing 311, and a driving module 370 inside the lower housing 313 ) And a power supply module 380.

또한, 펫 로봇(130)은 외형을 구성하는 로봇 바디(310)의 내부에 주변 상황 인지 모듈(350) 및 제어 모듈(360)을 포함할 수 있다. 로봇 바디(310)는 상부 하우징(311)과 하부 하우징(313)이 서로 결합하여 형성되기 때문에 로봇 바디(310)의 내부는 상부 하우징(311)의 내부와 하부 하우징(313)의 내부를 모두 포함하는 공간에 해당할 수 있다.In addition, the pet robot 130 may include a surrounding situation recognition module 350 and a control module 360 inside the robot body 310 constituting the outer shape. Since the robot body 310 is formed by combining the upper housing 311 and the lower housing 313 with each other, the inside of the robot body 310 includes both the inside of the upper housing 311 and the inside of the lower housing 313 It can correspond to a space to be.

디스플레이 모듈(320)은 상부 하우징(311)의 외부에 배치되어 펫 로봇(130)의 감정에 관한 이미지 또는 영상을 재생할 수 있다. 디스플레이 모듈(320)은 펫 로봇(130)의 감정을 시각적으로 표출하기 위한 디스플레이 패널을 포함할 수 있고, 외부의 입력을 수신할 수 있는 터치 기능을 포함하여 구현될 수 있다. 펫 로봇(130)은 인공지능에 의해 주변의 상황에 따라 자신의 감정을 표출할 수 있고, 감정의 표출 수단 중 하나로서 디스플레이를 활용할 수 있다. The display module 320 may be disposed outside the upper housing 311 to reproduce an image or video related to the emotion of the pet robot 130. The display module 320 may include a display panel for visually expressing the emotion of the pet robot 130, and may be implemented by including a touch function capable of receiving an external input. The pet robot 130 may express its own emotions according to surrounding situations by artificial intelligence, and may utilize a display as one of the means for expressing emotions.

일 실시예에서, 디스플레이 모듈(320)은 사용자 단말(110)로부터 수신한 사용자 영상을 재생함으로써 영상 통화 기능을 제공할 수 있다. 보다 구체적으로, 디스플레이 모듈(320)은 반려동물(150)에게 사용자의 영상을 실시간으로 보여줄 수 있고, 펫 로봇(130)은 내부에 설치된 카메라를 통해 반려동물(150)을 촬영하여 사용자 단말(110)에 전송함으로써 사용자와 반려동물(150) 간의 영상 통화를 제공할 수 있다.In an embodiment, the display module 320 may provide a video call function by playing a user image received from the user terminal 110. More specifically, the display module 320 may show the user's image to the companion animal 150 in real time, and the pet robot 130 photographs the companion animal 150 through a camera installed inside the user terminal 110 ), it is possible to provide a video call between the user and the companion animal 150.

급식 모듈(330)은 상부 하우징(311)의 내부에 배치되고, 로봇 바디(310)의 외부에 노출되어 사료를 제공할 수 있다. 급식 모듈(330)은 펫 로봇(130)의 내부에 보관된 사료를 필요에 따라 외부로 노출시켜 반려동물(150)에게 제공할 수 있다.The feeding module 330 may be disposed inside the upper housing 311 and exposed to the outside of the robot body 310 to provide feed. The feeding module 330 may provide the feed stored in the pet robot 130 to the companion animal 150 by exposing it to the outside as needed.

일 실시예에서, 급식 모듈(330)은 사료를 저장하는 사료통(331), 사료를 로봇 바디(310)의 외부로 노출시키는 급식통(335) 및 사료통(331)의 하단부에 배치되어 특정 용량의 사료를 급식통(335)으로 분배하는 분배기(333)를 포함할 수 있다. 사료통(331)은 사료를 보관할 수 있는 저장 용기로서 사료의 장기 보관에 적합한 용기 재질로 구현될 수 있고, 사료의 원활한 공급을 위해 지면과 수직 방향으로 형성될 수 있다. In one embodiment, the feeding module 330 is disposed at the lower end of the feed container 331 for storing the feed, the feed container 335 for exposing the feed to the outside of the robot body 310, and the feed container 331 It may include a distributor 333 for distributing the feed to the feeding container 335. The feed container 331 may be implemented as a container material suitable for long-term storage of feed as a storage container capable of storing feed, and may be formed in a vertical direction with the ground for smooth supply of feed.

급식통(335)은 일정량의 사료를 로봇 바디(310)의 외부로 노출시켜 반려동물(150)에게 효과적으로 제공할 수 있는 형태로 구현될 수 있다. 예를 들어, 그릇 형태로 구현되고 수평 방향으로 움직일 수 있는 레일에 설치됨으로써 왕복 이동을 통해 로봇 바디(310)의 외부로 노출될 수 있다. 분배기(333)는 사료통(331)에 저장된 사료를 일정한 양만큼 급식통(335)으로 분배할 수 있는 형태로 구현될 수 있고, 필요에 따라 사료통(331)의 하단부가 아닌 측면부에 배치될 수 있다. 예를 들어, 분배기(333)는 프로펠러 형태로 구현될 수 있고, 프로펠러의 수직 방향 회전을 통해 프로펠러 날개 사이에 형성되는 공간에 존재하는 일정량의 사료를 급식통(335)으로 분배할 수 있다.The feeding container 335 may be implemented in a form capable of effectively providing a certain amount of feed to the companion animal 150 by exposing it to the outside of the robot body 310. For example, by being implemented in a bowl shape and installed on a rail that can move in a horizontal direction, it may be exposed to the outside of the robot body 310 through a reciprocating movement. The dispenser 333 may be implemented in a form capable of distributing the feed stored in the feed container 331 to the feed container 335 in a certain amount, and may be disposed on the side of the feed container 331 instead of the lower end, as needed. . For example, the distributor 333 may be implemented in the form of a propeller, and a certain amount of feed existing in the space formed between the propeller blades may be distributed to the feeding container 335 through vertical rotation of the propeller.

일 실시예에서, 급식 모듈(330)은 상부 하우징(311)의 특정 영역을 구성하고 상부 하우징(311)과 분리 가능한 사료통 덮개를 포함할 수 있다. 사료통 덮개는 사료통(331)과 결합하여 사료통(331)에 저장된 사료가 외부로 노출되는 것을 방지할 수 있다. 사용자는 사료통 덮개를 상부 하우징(311)으로부터 분리하여 사료를 사료통(331)에 손쉽게 보충할 수 있다.In one embodiment, the feeding module 330 may include a feed container cover that constitutes a specific area of the upper housing 311 and is detachable from the upper housing 311. The feed container cover may be combined with the feed container 331 to prevent the feed stored in the feed container 331 from being exposed to the outside. The user can easily replenish feed to the feed container 331 by separating the feed container cover from the upper housing 311.

원격 컨트롤 모듈(340)은 상부 하우징(311)의 외부에 배치되어 적어도 하나의 외부 시스템에 관한 동작을 원격으로 제어할 수 있다. 원격 컨트롤 모듈(340)은 리모트 컨트롤러(remote controller)를 포함할 수 있고, 리모트 컨트롤러는 적외선을 방출하는 적외선 LED를 포함하여 구현될 수 있다.The remote control module 340 is disposed outside the upper housing 311 to remotely control an operation of at least one external system. The remote control module 340 may include a remote controller, and the remote controller may include an infrared LED emitting infrared rays.

여기에서, 외부 시스템은 리모트 컨트롤러(remote controller)를 통해 제어 가능한 장치에 해당할 수 있고, 예를 들어, TV, 에어컨, 오디오 등을 포함할 수 있다. 사용자는 사용자 단말(110)을 통해 외부에서 펫 로봇(130)과 통신을 수행할 수 있고, 펫 로봇(130)의 원격 컨트롤 모듈(340)을 통해 펫 로봇(130)의 주변에 위치하고 있는 외부 시스템에 대한 원격 제어를 수행할 수 있다.Here, the external system may correspond to a device controllable through a remote controller, and may include, for example, a TV, an air conditioner, an audio system, and the like. The user can communicate with the pet robot 130 from the outside through the user terminal 110, and an external system located around the pet robot 130 through the remote control module 340 of the pet robot 130 Remote control can be performed.

주변 상황 인지 모듈(350)은 로봇 바디(310)의 내부에 배치되어 복수의 센서들을 통해 펫 로봇(130)의 주변 상황 정보를 생성할 수 있다. 펫 로봇(130) 내부에 설치된 복수의 센서들은 조도 센서, 온도 센서, 습도 센서, 카메라 센서, 거리감지 센서, 추락방지 센서 및 마이크 등을 포함할 수 있다. 주변 상황 인지 모듈(350)은 복수의 센서들로부터 수집한 센서 데이터들을 이용하여 주변 상황 정보를 생성할 수 있다. 주변 상황 정보는 특정 시점에 관한 정보를 포함할 수 있고, 각 센서로부터 획득한 센싱 값이 특정 순서에 따라 정렬된 형태로 표현될 수 있으며, 센싱 값을 통해 도출되는 2차 정보를 포함할 수 있다.The surrounding situation recognition module 350 may be disposed inside the robot body 310 to generate surrounding situation information of the pet robot 130 through a plurality of sensors. The plurality of sensors installed inside the pet robot 130 may include an illuminance sensor, a temperature sensor, a humidity sensor, a camera sensor, a distance sensor, a fall prevention sensor, a microphone, and the like. The surrounding situation recognition module 350 may generate surrounding situation information by using sensor data collected from a plurality of sensors. The surrounding situation information may include information on a specific time point, sensing values obtained from each sensor may be expressed in a form arranged according to a specific order, and may include secondary information derived through sensing values. .

제어 모듈(360)은 로봇 바디(310)의 내부에 배치되고, 주변 상황 정보를 학습하여 객체 인식 및 감정 표현에 관한 로봇의 동작을 제어할 수 있다. 제어 모듈(360)은 펫 로봇(130)의 동작을 위해 다양한 학습 모델을 생성하여 활용할 수 있고, 학습을 위한 전처리 과정으로서 학습 데이터를 생성할 수 있다. 학습된 결과로서 학습 모델은 내부 메모리에 저장되어 펫 로봇(130)의 동작 제어에 활용될 수 있다.The control module 360 is disposed inside the robot body 310 and learns surrounding situation information to control the operation of the robot regarding object recognition and emotion expression. The control module 360 may generate and utilize various learning models for the operation of the pet robot 130, and may generate learning data as a preprocessing process for learning. As a result of the learning, the learning model may be stored in an internal memory and used to control the motion of the pet robot 130.

예를 들어, 제어 모듈(360)은 학습 모델을 통해 주변 상황 정보를 기초로 펫 로봇(130)의 주변에 존재하는 객체를 인식할 수 있고, 인식된 객체와의 친밀도를 결정할 수 있으며, 친밀도 및 주변 상황 정보를 기초로 해당 시점에서의 펫 로봇(130)의 감정을 결정할 수 있다. 또한, 제어 모듈(360)은 학습 모델을 통해 펫 로봇(130)의 감정에 따른 동작을 결정할 수 있다.For example, the control module 360 may recognize an object existing around the pet robot 130 based on the surrounding situation information through the learning model, determine the intimacy with the recognized object, and An emotion of the pet robot 130 at a corresponding time may be determined based on the surrounding situation information. In addition, the control module 360 may determine an operation according to the emotion of the pet robot 130 through the learning model.

일 실시예에서, 제어 모듈(360)은 인식된 객체와의 친밀도에 따라 복수의 감정 카테고리들 중 어느 하나를 결정하고 주변 상황 정보를 기초로 산출되는 감정 지수에 따라 해당 감정 카테고리에 포함된 복수의 감정 단계들 중 어느 하나를 펫 로봇(130)의 최종 감정으로서 결정하여 펫 로봇(130)의 동작을 제어할 수 있다. 제어 모듈(360)은 주변 상황 정보를 기초로 펫 로봇(130) 주변에 존재하는 객체를 인식할 수 있고, 예를 들어, 객체로서 사람, 반려동물 또는 각종 사물을 결정할 수 있다. In one embodiment, the control module 360 determines any one of a plurality of emotion categories according to intimacy with the recognized object, and a plurality of emotion categories included in the corresponding emotion category according to an emotion index calculated based on surrounding situation information. Any one of the emotion steps may be determined as the final emotion of the pet robot 130 to control the operation of the pet robot 130. The control module 360 may recognize an object existing around the pet robot 130 based on the surrounding situation information, and, for example, may determine a person, a companion animal, or various objects as the object.

또한, 제어 모듈(360)은 인식된 객체와의 친밀도를 결정할 수 있다. 예를 들어, 객체가 사람인지, 반려동물인지, 사물인지에 따라 기본 친밀도를 결정할 수 있고, 기본 친밀도를 기준으로 과거 인식 횟수나 빈도에 따라 친밀도를 가감함으로써 객체와의 친밀도를 구체적으로 결정할 수 있다. 다른 실시예에서, 제어 모듈(360)은 학습 모델을 통해 객체의 인식 및 해당 객체와의 친밀도를 결정할 수 있다. 즉, 제어 모듈(360)은 학습 모델에 인식된 객체를 입력하여 해당 객체에 대한 친밀도를 수치화된 값으로 획득할 수 있다.Also, the control module 360 may determine intimacy with the recognized object. For example, the basic intimacy can be determined according to whether the object is a person, a companion animal, or an object, and the intimacy with the object can be specifically determined by adding or subtracting the intimacy according to the number or frequency of past recognition based on the basic intimacy. . In another embodiment, the control module 360 may recognize an object and determine intimacy with the object through the learning model. That is, the control module 360 may input the recognized object to the learning model and obtain the intimacy for the corresponding object as a numerical value.

제어 모듈(360)은 객체와의 친밀도를 기초로 복수의 감정 카테고리들 중 어느 하나를 결정할 수 있다. 객체와의 친밀도가 높을수록 기쁨에 가까운 감정으로 표현될 수 있고, 반대로 객체와의 친밀도가 낮을수록 슬픔에 가까운 감정으로 표현될 수 있다. 또한, 제어 모듈(360)은 주변 상황 정보를 기초로 펫 로봇(130)의 감정 지수를 결정할 수 있다. 감정 지수는 주변 상황 정보에 따른 펫 로봇(130)의 감정을 수치화한 것에 해당할 수 있고, 제어 모듈(360)은 주변의 온도, 습도, 조도 및 공간의 특성 등 다양한 상황을 통합 반영하여 수치화할 수 있으며, 주변 상황 정보를 기초로 감정 지수를 도출하는 학습 모델을 통해 결정할 수 있다. 제어 모듈(360)은 친밀도를 기초로 감정 카테고리를 1차 결정하고 감정 지수를 기초로 해당 감정 카테고리에서의 감정 단계를 2차 결정할 수 있다.The control module 360 may determine any one of a plurality of emotion categories based on intimacy with the object. The higher the intimacy with the object, the closer it can be expressed as an emotion close to joy, and the lower the intimacy with the object, the closer it can be expressed as an emotion close to sadness. In addition, the control module 360 may determine the emotion index of the pet robot 130 based on the surrounding situation information. The emotion index may correspond to a numerical expression of the emotion of the pet robot 130 according to the surrounding situation information, and the control module 360 may integrate and reflect various situations such as surrounding temperature, humidity, illuminance, and space characteristics to quantify it. It can be determined through a learning model that derives an emotion index based on the surrounding situation information. The control module 360 may first determine an emotion category based on intimacy and may secondly determine an emotion level in the corresponding emotion category based on the emotion index.

일 실시예에서, 제어 모듈(360)은 디스플레이 모듈(320)을 통해 객체, 감정 및 상태 각각을 독립적인 색상으로 표현할 수 있다. 제어 모듈(360)은 펫 로봇의 상황을 디스플레이 모듈(320)을 통해 외부에 시각적으로 표출할 수 있다. 제어 모듈(360)은 펫 로봇(130) 주변에서 인식된 객체에 따른 색상을 RGB형태로 디스플레이 모듈(320)을 통해 표출할 수 있다. 제어 모듈(360)은 펫 로봇(130)의 감정에 따른 색상을 RGB형태로 디스플레이 모듈(320)을 통해 표출할 수 있다. 제어 모듈(360)은 펫 로봇(130)의 상태에 따른 색상을 RGB형태로 디스플레이 모듈(320)을 통해 표출할 수 있다. In an embodiment, the control module 360 may express an object, an emotion, and a state in an independent color through the display module 320. The control module 360 may visually display the situation of the pet robot to the outside through the display module 320. The control module 360 may display a color according to an object recognized around the pet robot 130 in an RGB format through the display module 320. The control module 360 may display a color according to the emotion of the pet robot 130 in RGB form through the display module 320. The control module 360 may display a color according to the state of the pet robot 130 in RGB form through the display module 320.

여기에서, 펫 로봇(130)의 상태는 펫 로봇(130)의 감정과는 구별되는 개념으로서 특정 시점에서 펫 로봇(130)이 가질 수 있는 생각에 해당할 수 있다. 펫 로봇(130)의 상태는 주변 상황 정보에 대한 학습 결과로서 생성된 인공지능을 활용하여 정의될 수 있다.Here, the state of the pet robot 130 is a concept that is distinct from the emotion of the pet robot 130 and may correspond to an idea that the pet robot 130 may have at a specific point in time. The state of the pet robot 130 may be defined using artificial intelligence generated as a result of learning about surrounding situation information.

일 실시예에서, 제어 모듈(360)은 인식된 객체와의 친밀도 및 주변 상황 정보를 기초로 복수의 행동 패턴들 중 어느 하나를 결정하여 해당 행동 패턴에 따라 펫 로봇(130)의 동작을 제어할 수 있다. 복수의 행동 패턴들은 따라가기, 도망가기, 숨기, 춤추기(댄스) 등을 포함할 수 있다. 제어 모듈(360)은 친밀도 및 주변 상황 정보를 입력하면 복수의 행동 패턴들 중 어느 하나를 출력으로 제공하는 학습 모델을 통해 펫 로봇(130)의 동작을 제어할 수 있다.In one embodiment, the control module 360 determines any one of a plurality of behavior patterns based on the intimacy with the recognized object and surrounding situation information, and controls the operation of the pet robot 130 according to the corresponding behavior pattern. I can. The plurality of behavior patterns may include following, running away, hiding, dancing (dance), and the like. The control module 360 may control the operation of the pet robot 130 through a learning model that provides one of a plurality of behavior patterns as an output when intimacy and surrounding situation information are input.

일 실시예에서, 제어 모듈(360)은 해당 객체와의 권장 거리를 결정하고 해당 객체와 권장 거리를 유지하도록 구동 모듈(370)을 제어할 수 있다. 제어 모듈(360)은 인식된 객체와의 친밀도를 기초로 해당 객체와의 권장 거리를 결정할 수 있다. 예를 들어, 특정 객체와의 권장 거리는 해당 객체와의 친밀도가 높을수록 가까워질 수 있고, 반대로 친밀도가 낮을수록 멀어질 수 있다.In an embodiment, the control module 360 may control the driving module 370 to determine a recommended distance to the object and maintain the recommended distance to the object. The control module 360 may determine a recommended distance to the object based on the intimacy with the recognized object. For example, the recommended distance to a specific object may become closer as the intimacy with the object increases, and may increase as the intimacy decreases.

일 실시예에서, 제어 모듈(360)은 해당 행동 패턴이 댄스(dance)인 경우 펫 로봇(130)의 위치를 포함하는 댄스 영역을 결정하고 댄스 영역 내에서 위치 좌표와 댄스 모션(motion)으로 정의되는 춤 동작을 생성하여 춤 동작에 따라 펫 로봇(130)의 동작을 제어할 수 있다. 제어 모듈(360)은 펫 로봇(130)의 현재 위치를 기초로 댄스 동작을 수행하기 위한 공간을 댄스 영역으로 지정할 수 있다. 또한, 제어 모듈(360)은 펫 로봇(130)의 댄스 동작을 제어하기 위하여 미리 정해진 패턴이 아닌 실시간으로 생성되는 춤 동작에 따라 펫 로봇(130)의 동작을 제어할 수 있다. In one embodiment, the control module 360 determines a dance area including the position of the pet robot 130 when the corresponding behavior pattern is dance, and defines the position coordinates and dance motion within the dance area. It is possible to control the motion of the pet robot 130 according to the dancing motion by generating a dancing motion. The control module 360 may designate a space for performing a dance operation based on the current position of the pet robot 130 as a dance area. In addition, the control module 360 may control the motion of the pet robot 130 according to a dance motion generated in real time rather than a predetermined pattern in order to control the dance motion of the pet robot 130.

여기에서, 춤 동작은 댄스 영역 내의 임의의 위치 좌표를 포함하여 해당 위치 좌표로의 이동, 해당 위치 좌표에서 회전, 해당 위치좌표까지의 왕복 이동 등으로 정의된 복수의 댄스 모션들 중 랜덤하게 선택된 특정 댄스 모션으로 결정될 수 있다. 제어 모듈(360)은 위치 좌표와 댄스 모션을 랜덤하게 선택하여 춤 동작을 결정하고 해당 춤 동작에 따라 펫 로봇(130)의 동작을 제어함으로써 다양한 패턴의 춤 동작을 표출할 수 있다.Here, the dance movement is a specific randomly selected from among a plurality of dance motions defined by moving to the corresponding position coordinates including arbitrary position coordinates within the dance area, rotation from the corresponding position coordinate, and reciprocating movement to the corresponding position coordinate. It can be determined as a dance motion. The control module 360 may randomly select a position coordinate and a dance motion to determine a dance motion, and control the motion of the pet robot 130 according to the corresponding dance motion, thereby expressing various patterns of dance motion.

일 실시예에서, 제어 모듈(360)은 적어도 하나의 외부 시스템에 관한 원격 제어 요청을 수신한 경우 해당 외부 시스템에 관해 학습된 원격 제어 영역으로 펫 로봇(130)의 이동을 제어할 수 있다. 원격 제어 영역은 각 외부 시스템에 대한 원격 컨트롤이 가장 잘 수행될 수 있는 영역에 해당할 수 있고, 제어 모듈(360)은 주변 상황 정보에 대한 학습 결과를 이용하여 각 외부 시스템별 최적의 원격 제어 영역을 결정할 수 있다. 제어 모듈(360)은 원격 제어 요청을 수신한 경우 해당 요청과 연관된 외부 시스템에 대한 원격 제어 영역으로 펫 로봇(130)의 이동시킴으로써 원격 제어의 원활한 수행을 지원할 수 있다.In an embodiment, when receiving a remote control request for at least one external system, the control module 360 may control movement of the pet robot 130 to a remote control area learned about the corresponding external system. The remote control area may correspond to an area in which remote control for each external system can be best performed, and the control module 360 uses the learning result of the surrounding situation information to provide an optimal remote control area for each external system. Can be determined. When receiving a remote control request, the control module 360 may support smooth execution of remote control by moving the pet robot 130 to a remote control area for an external system associated with the request.

구동 모듈(370)은 하부 하우징(313)의 바닥면에 배치되어 펫 로봇(130)을 운행할 수 있다. 구동 모듈(370)은 일반적으로 바퀴를 포함하여 구현될 수 있으나, 반드시 이에 한정되지 않고, 다양한 형태로 구현될 수 있다.The driving module 370 may be disposed on the bottom surface of the lower housing 313 to drive the pet robot 130. In general, the driving module 370 may be implemented including a wheel, but is not limited thereto and may be implemented in various forms.

일 실시예에서, 구동 모듈(370)은 로봇 바디(310)를 운행하는 복수의 바퀴(371)들 및 복수의 바퀴(371)들 중 적어도 하나를 회전시키는 구동 모터(373)를 포함할 수 있다. 구동 모터(373)는 모든 바퀴(371)를 동시에 제어할 수 있고, 경우에 따라서 복수의 바퀴(371)들 중 일부만을 회전시켜 펫 로봇(130)을 운행시킬 수 있다.In one embodiment, the driving module 370 may include a plurality of wheels 371 for driving the robot body 310 and a driving motor 373 for rotating at least one of the plurality of wheels 371. . The drive motor 373 may control all the wheels 371 at the same time, and in some cases, the pet robot 130 may be operated by rotating only some of the plurality of wheels 371.

전원 공급 모듈(380)은 하부 하우징(313)의 내부에 배치되어 펫 로봇(130)에게 전원을 공급할 수 있다. 전원 공급 모듈(380)은 유선 또는 무선으로 전원을 공급할 수 있다.The power supply module 380 may be disposed inside the lower housing 313 to supply power to the pet robot 130. The power supply module 380 may supply power by wire or wirelessly.

일 실시예에서, 전원 공급 모듈(380)은 전원을 공급하는 배터리(381) 및 배터리(381)를 충전시키는 충전기(383)을 포함할 수 있다. 전원 공급 모듈(380)은 펫 로봇(130)이 무선으로 동작할 수 있도록 내부에 배터리(381)와 충전기(383)를 포함하여 구현될 수 있다. 다른 예에서, 전원 공급 모듈(380)은 펫 로봇(130)의 내부에 배터리(381)만 포함되고, 펫 로봇(130)의 외부에 충전기(383)가 배치되는 형태로 구현될 수 있다. 이 경우, 펫 로봇(130)은 배터리(381)의 충전량이 일정 수치 이하로 떨어지면 자동으로 충전기(383)에 결합되어 배터리(381)의 충전이 수행되도록 구현될 수 있다.In one embodiment, the power supply module 380 may include a battery 381 that supplies power and a charger 383 that charges the battery 381. The power supply module 380 may be implemented to include a battery 381 and a charger 383 inside so that the pet robot 130 can operate wirelessly. In another example, the power supply module 380 may be implemented in a form in which only the battery 381 is included in the pet robot 130 and a charger 383 is disposed outside the pet robot 130. In this case, the pet robot 130 may be implemented so that when the charging amount of the battery 381 falls below a certain value, it is automatically coupled to the charger 383 to perform charging of the battery 381.

도 4는 도 1에 있는 펫 로봇에서 수행되는 인공지능에 기반하여 펫의 동작을 제어하는 과정의 일 실시예를 설명하는 순서도이다.4 is a flowchart illustrating an embodiment of a process of controlling a pet's motion based on artificial intelligence performed by the pet robot of FIG. 1.

도 4를 참조하면, 펫 로봇(130)은 주변 상황 인지 모듈(350)을 통해 주변 상황 정보를 수집하고 제어 모듈(360)을 통해 학습을 수행할 수 있다(단계 S410). 펫 로봇(130)은 제어 모듈(360)을 통해 학습 정보를 기초로 로봇의 주변에 존재하는 객체를 인식할 수 있다(단계 S430). 펫 로봇(130)은 제어 모듈(360)을 통해 객체와의 친밀도를 결정하여 주변 상황 정보에 따른 펫 로봇(130)의 감정을 결정할 수 있다(단계 S450). 펫 로봇(130)은 제어 모듈(360)을 통해 감정에 따라 펫 로봇(130)의 행동을 제어할 수 있다. 예를 들어, 펫 로봇(130)은 감정에 따라 특정 색상을 표출하거나 특정 행동을 표출할 수 있다(단계 S470).Referring to FIG. 4, the pet robot 130 may collect surrounding situation information through the surrounding situation recognition module 350 and perform learning through the control module 360 (step S410). The pet robot 130 may recognize an object existing around the robot based on the learning information through the control module 360 (step S430). The pet robot 130 may determine an intimacy with the object through the control module 360 to determine the emotion of the pet robot 130 according to the surrounding situation information (step S450). The pet robot 130 may control the behavior of the pet robot 130 according to emotion through the control module 360. For example, the pet robot 130 may display a specific color or a specific action according to emotion (step S470).

도 5는 본 발명의 일 실시예에 따른 펫 로봇을 나타내는 도면이다. 보다 구체적으로, 도 5a는 펫 로봇(130)의 정면도이고, 도 5b는 펫 로봇(130)의 측면도이며, 도 5c는 펫 로봇(130)의 배면도이고, 도 5d는 펫 로봇(130)의 저면도이다. 또한, 도 5e는 펫 로봇(130)의 다양한 동작 상태를 설명하는 예시도이다. 한편, 도 5에서는 급식 모듈(510)을 포함하는 펫 로봇(130)을 예로 들어 설명하고 있으나, 반드시 이에 한정되지 않고, 펫 로봇(130)은 급식 모듈(510)을 포함하지 않는 형태로도 구현될 수 있다.5 is a view showing a pet robot according to an embodiment of the present invention. More specifically, Figure 5a is a front view of the pet robot 130, Figure 5b is a side view of the pet robot 130, Figure 5c is a rear view of the pet robot 130, Figure 5d is the pet robot 130 It is a bottom view. In addition, FIG. 5E is an exemplary diagram illustrating various operating states of the pet robot 130. Meanwhile, in FIG. 5, the pet robot 130 including the feeding module 510 is described as an example, but the present invention is not limited thereto, and the pet robot 130 is also implemented in a form that does not include the feeding module 510 Can be.

도 5a를 참조하면, 펫 로봇(130)은 디스플레이 모듈(320)로서 LCD()를 포함할 수 있다. 펫 로봇(130)은 급식 모듈(510)을 포함할 수 있고, 원격 컨트롤 모듈(340)로서 리모컨 LED(580)를 포함할 수 있다. 펫 로봇(130)은 주변 상황 인지 모듈(350)로서 복수의 센서들을 포함할 수 있고, 예를 들어, 거리감지센서(520), 마이크(540), 카메라(550), 적외선 LED(560) 및 조도센서(570)를 포함할 수 있다. 펫 로봇(130)은 구동 모듈(330)로서 복수의 바퀴들(501, 502)을 포함할 수 있다.Referring to FIG. 5A, the pet robot 130 may include an LCD() as a display module 320. The pet robot 130 may include a feeding module 510 and may include a remote control LED 580 as the remote control module 340. The pet robot 130 may include a plurality of sensors as the surrounding situation recognition module 350, for example, a distance sensor 520, a microphone 540, a camera 550, an infrared LED 560, and It may include an illuminance sensor 570. The pet robot 130 may include a plurality of wheels 501 and 502 as the driving module 330.

구동 모듈(370)은 구동 모터(373)에 의해 회전하는 바퀴(501)와 로봇 바디(310)를 지지하고 수동적으로 회전하는 바퀴(502)를 포함하여 구현될 수 있다. 거리감지센서(520)는 로봇 바디(310)의 정면을 향하여 특정 위치에 배치될 수 있고, 펫 로봇(130)의 충돌 또는 추락을 방지하는데 활용될 수 있다. 디스플레이 모듈(320)은 LED(530)로 구현될 수 있으나, 반드시 이에 한정되지 않고, 다양한 방식으로 구현될 수 있다. 마이크(540), 카메라(550), 적외선 LED(560) 및 리모컨 LED(580)는 LED(530) 상단부에 나란히 정렬된 형태로 배치될 수 있고, 조도센서(570)는 로봇 바디(310)의 상부에 배치될 수 있다.The driving module 370 may be implemented by including a wheel 501 rotating by a driving motor 373 and a wheel 502 that supports the robot body 310 and rotates passively. The distance sensor 520 may be disposed at a specific position facing the front of the robot body 310, and may be used to prevent a collision or a fall of the pet robot 130. The display module 320 may be implemented with the LED 530, but is not necessarily limited thereto, and may be implemented in various ways. The microphone 540, the camera 550, the infrared LED 560, and the remote control LED 580 may be arranged in a form aligned parallel to the top of the LED 530, and the illuminance sensor 570 is Can be placed on top.

도 5b를 참조하면, 펫 로봇(130)은 로봇 바디(310)의 양쪽 측면부에 스피커(590)를 포함할 수 있다. 스피커(590)는 로봇 바디의 내부에 포함된 형태로 구현되어 외부의 충격으로부터 보호될 수 있다. 일 실시예에서, 급식 모듈(510)은 사료통 덮개(511)를 포함하여 구현될 수 있고, 사료통 덮개(511)는 로봇 바디(310)를 구성하는 상부 하우징(311)의 후면 상단부의 특정 영역을 형성할 수 있다. 또한, 사료통 덮개(511)는 상부 하우징(311)과 분리 가능한 형태로 구현될 수 있다.Referring to FIG. 5B, the pet robot 130 may include speakers 590 on both side surfaces of the robot body 310. The speaker 590 may be implemented in a form included in the robot body to be protected from external impact. In one embodiment, the feeding module 510 may be implemented including a feed container cover 511, and the feed container cover 511 covers a specific area of the rear upper end of the upper housing 311 constituting the robot body 310. Can be formed. In addition, the feed container cover 511 may be implemented in a form that can be separated from the upper housing 311.

도 5c를 참조하면, 펫 로봇(130)은 복수의 거리감지센서(520)를 포함하여 구현될 수 있고, 로봇 바디(310)의 후면부의 특정 위치에 배치될 수 있다. 스피커(590)는 로봇 바디(310)의 양쪽 측면부에 각각 배치되어 구현될 수 있다. 도 5d를 참조하면, 펫 로봇(130)은 구동 모듈(370)을 포함할 수 있고, 구동 모듈(370)은 복수의 바퀴들(501, 502) 및 바퀴를 구동하는 구동 모터(373)를 포함하여 구현될 수 있다. 일 실시예에서, 구동 모듈(370)은 구동 모터(373)로부터 직접 수신한 동력에 의해 회전하는 한 쌍의 바퀴(501)와 펫 로봇(130)의 운행을 보조하기 위한 하나의 바퀴(502)를 포함하여 구현될 수 있다.Referring to FIG. 5C, the pet robot 130 may be implemented by including a plurality of distance sensors 520, and may be disposed at a specific position of the rear portion of the robot body 310. The speaker 590 may be implemented by being disposed on both side surfaces of the robot body 310. Referring to FIG. 5D, the pet robot 130 may include a driving module 370, and the driving module 370 includes a plurality of wheels 501 and 502 and a driving motor 373 for driving the wheels. Can be implemented. In one embodiment, the driving module 370 includes a pair of wheels 501 rotating by power directly received from the driving motor 373 and one wheel 502 for assisting the operation of the pet robot 130 It can be implemented including.

도 5e를 참조하면, 펫 로봇(130)은 반려동물(150)에게 사료를 제공할 수 있는 급식 모듈(510)을 포함하여 구현될 수 있고, 급식 모듈(510)은 급식통(513), 사료통(512) 및 분배기(333)를 포함할 수 있다. 일 실시예에서, 급식 모듈(510)은 사료통 덮개(511)를 더 포함할 수 있다. 그림 (a)에서, 급식 모듈(510)은 로봇 바디(310)의 내부에서 급식통(513)에 사료를 분배한 후 급식통(513)을 외부에 노출시킴으로써 반려동물(150)에게 사료를 제공할 수 있다. 그림 (b)에서, 사료통 덮개(511)를 제거하면 로봇 바디(310) 내부에 배치된 사료통(512)이 외부로 노출될 수 있고, 사용자는 사료통(512)에 사료를 보충할 수 있다.5E, the pet robot 130 may be implemented including a feeding module 510 capable of providing feed to the companion animal 150, and the feeding module 510 includes a feeding container 513, a feed container It may include 512 and a distributor 333. In one embodiment, the feeding module 510 may further include a feed container cover 511. In the figure (a), the feeding module 510 provides feed to the companion animal 150 by distributing feed to the feeding tank 513 inside the robot body 310 and then exposing the feeding tank 513 to the outside. can do. In the figure (b), when the feed container cover 511 is removed, the feed container 512 disposed inside the robot body 310 may be exposed to the outside, and the user may supplement the feed container 512 with feed.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can do it.

100: 반려동물 관리 시스템
501, 502: 바퀴
510: 급식 모듈 511: 사료통 덮개
512: 사료통 513: 급식통
520: 거리감지센서 530: LCD
540: 마이크 550: 카메라
560: 적외선 LED 570: 조도센서
580: 리모컨 LED 590: 스피커
100: companion animal management system
501, 502: wheels
510: feeding module 511: feed container cover
512: feed container 513: feeding container
520: distance sensor 530: LCD
540: microphone 550: camera
560: infrared LED 570: illuminance sensor
580: remote control LED 590: speaker

Claims (8)

로봇의 외형을 이루고 서로 결합되는 상부 하우징 및 하부 하우징을 포함하는 로봇 바디;
상기 로봇 바디의 내부에 배치되어 복수의 센서들을 통해 상기 로봇의 주변 상황 정보를 생성하는 주변 상황 인지 모듈;
상기 상부 하우징의 외부에 배치되어 상기 로봇의 감정에 관한 이미지 또는 영상을 재생하는 디스플레이 모듈;
상기 하부 하우징의 바닥면에 배치되어 상기 로봇을 운행하는 구동 모듈;
상기 하부 하우징의 내부에 배치되고, 상기 로봇에 전원을 공급하는 배터리(battery) 및 상기 배터리를 충전시키는 충전기를 포함하는 전원 공급 모듈; 및
상기 로봇 바디의 내부에 배치되고, 상기 주변 상황 정보를 학습하여 객체 인식 및 감정 표현에 관한 상기 로봇의 동작을 제어하는 제어 모듈을 포함하는 인공지능이 구비된 펫(Pet) 로봇.
A robot body comprising an upper housing and a lower housing forming the outer shape of the robot and coupled to each other;
A surrounding situation recognition module disposed inside the robot body to generate surrounding situation information of the robot through a plurality of sensors;
A display module disposed outside the upper housing to reproduce an image or video related to the emotion of the robot;
A driving module disposed on the bottom surface of the lower housing to drive the robot;
A power supply module disposed inside the lower housing and including a battery for supplying power to the robot and a charger for charging the battery; And
A pet robot with artificial intelligence, which is disposed inside the robot body and includes a control module that learns the surrounding situation information and controls the operation of the robot regarding object recognition and emotion expression.
제1항에 있어서,
상기 상부 하우징의 내부에 배치되고, 상기 로봇 바디의 외부에 노출되어 사료를 제공하는 급식 모듈을 더 포함하고,
상기 급식 모듈은
상기 사료를 저장하는 사료통;
상기 사료를 상기 로봇 바디의 외부로 노출시키는 급식통; 및
상기 사료통의 하단부에 배치되어 특정 용량의 사료를 상기 급식통으로 분배하는 분배기를 포함하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.
The method of claim 1,
Further comprising a feeding module disposed inside the upper housing and exposed to the outside of the robot body to provide feed,
The feeding module is
A feed container for storing the feed;
A feeding container for exposing the feed to the outside of the robot body; And
Pet robot with artificial intelligence, characterized in that it comprises a dispenser disposed at the lower end of the feed container to distribute the feed of a specific capacity to the feed container.
제1항에 있어서, 상기 구동 모듈은
상기 로봇 바디를 운행하는 복수의 바퀴들; 및
상기 복수의 바퀴들 중 적어도 하나를 회전시키는 구동 모터를 포함하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.
The method of claim 1, wherein the driving module
A plurality of wheels driving the robot body; And
Pet robot with artificial intelligence, characterized in that it comprises a drive motor to rotate at least one of the plurality of wheels.
제1항에 있어서, 상기 제어 모듈은
인식된 객체와의 친밀도에 따라 복수의 감정 카테고리들 중 어느 하나를 결정하고 상기 주변 상황 정보를 기초로 산출되는 감정 지수에 따라 해당 감정 카테고리에 포함된 복수의 감정 단계들 중 어느 하나를 상기 로봇의 최종 감정으로서 결정하여 상기 로봇의 동작을 제어하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.
The method of claim 1, wherein the control module
One of a plurality of emotion categories is determined according to the intimacy with the recognized object, and any one of the plurality of emotion steps included in the corresponding emotion category is performed according to the emotion index calculated based on the surrounding situation information. Pet robot with artificial intelligence, characterized in that determining as the final emotion and controlling the operation of the robot.
제1항에 있어서, 상기 제어 모듈은
인식된 객체와의 친밀도 및 상기 주변 상황 정보를 기초로 복수의 행동 패턴들 중 어느 하나를 결정하여 해당 행동 패턴에 따라 상기 로봇의 동작을 제어하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.
The method of claim 1, wherein the control module
Pet with artificial intelligence, characterized in that it controls the operation of the robot according to the corresponding behavior pattern by determining any one of a plurality of behavior patterns based on the intimacy with the recognized object and the surrounding situation information robot.
제5항에 있어서, 상기 제어 모듈은
상기 해당 행동 패턴이 댄스(dance)인 경우 상기 로봇의 위치를 포함하는 댄스 영역을 결정하고 상기 댄스 영역 내에서 위치 좌표와 댄스 모션(motion)으로 정의되는 춤 동작을 생성하여 상기 춤 동작에 따라 상기 로봇의 동작을 제어하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.
The method of claim 5, wherein the control module
When the corresponding behavior pattern is dance, a dance area including the position of the robot is determined, and a dance movement defined by a position coordinate and a dance motion is generated in the dance area, and the dance movement is performed according to the dance movement. Pet robot equipped with artificial intelligence, characterized in that to control the operation of the robot.
제1항에 있어서,
상기 상부 하우징의 외부에 배치되어 적어도 하나의 외부 시스템에 관한 동작을 원격으로 제어하는 원격 컨트롤(remote control) 모듈을 더 포함하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.
The method of claim 1,
A pet robot with artificial intelligence, further comprising a remote control module disposed outside the upper housing to remotely control an operation of at least one external system.
제7항에 있어서, 상기 제어 모듈은
상기 적어도 하나의 외부 시스템에 관한 원격 제어 요청을 수신한 경우 해당 외부 시스템에 관해 학습된 원격 제어 영역으로 상기 로봇의 이동을 제어하는 것을 특징으로 하는 인공지능이 구비된 펫(Pet) 로봇.

The method of claim 7, wherein the control module
When a remote control request for the at least one external system is received, a pet robot with artificial intelligence, characterized in that the movement of the robot is controlled to a remote control area learned about the corresponding external system.

KR1020190028748A 2019-03-13 2019-03-13 Pet robot equipped with artificial intelligence KR102293332B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190028748A KR102293332B1 (en) 2019-03-13 2019-03-13 Pet robot equipped with artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190028748A KR102293332B1 (en) 2019-03-13 2019-03-13 Pet robot equipped with artificial intelligence

Publications (2)

Publication Number Publication Date
KR20200116185A true KR20200116185A (en) 2020-10-12
KR102293332B1 KR102293332B1 (en) 2021-08-25

Family

ID=72886253

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190028748A KR102293332B1 (en) 2019-03-13 2019-03-13 Pet robot equipped with artificial intelligence

Country Status (1)

Country Link
KR (1) KR102293332B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070103241A (en) * 2006-04-18 2007-10-23 이지로보틱스 주식회사 Method and device for controlling robot according to audio signal
KR20080094117A (en) 2007-04-06 2008-10-23 주식회사 칼라짚미디어 System for managing a companion animal and method therefor
KR20090079655A (en) * 2008-01-18 2009-07-22 주식회사 케이티 Method of executing robot behavior based on user behavior and its robot
KR20140146806A (en) 2013-06-18 2014-12-29 이동환 Animal companion management apparatus and method thereof
KR101721386B1 (en) * 2016-12-07 2017-03-30 송수한 Automatic feeding movable apparatus, care robot for companion animal, care system for companion animal having the same and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070103241A (en) * 2006-04-18 2007-10-23 이지로보틱스 주식회사 Method and device for controlling robot according to audio signal
KR20080094117A (en) 2007-04-06 2008-10-23 주식회사 칼라짚미디어 System for managing a companion animal and method therefor
KR20090079655A (en) * 2008-01-18 2009-07-22 주식회사 케이티 Method of executing robot behavior based on user behavior and its robot
KR20140146806A (en) 2013-06-18 2014-12-29 이동환 Animal companion management apparatus and method thereof
KR101721386B1 (en) * 2016-12-07 2017-03-30 송수한 Automatic feeding movable apparatus, care robot for companion animal, care system for companion animal having the same and control method thereof

Also Published As

Publication number Publication date
KR102293332B1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
CN100423911C (en) Robot device and behavior control method for robot device
JP6984004B2 (en) Continuous selection of scenarios based on identification tags that describe the user's contextual environment for the user's artificial intelligence model to run through an autonomous personal companion.
JP6972325B2 (en) Movable autonomous personal companion based on artificial intelligence (AI) models for users
CN111295671B (en) Modularized hierarchical vision system for autonomous personal companion
KR101028814B1 (en) Software robot apparatus and method for expressing behavior of software robot
US11571648B2 (en) Air cleaner
EP3705241A1 (en) Information processing device, information processing method, and program
KR20190103103A (en) Artificial intelligence moving agent
US11540690B2 (en) Artificial intelligence robot cleaner
US11675360B2 (en) Information processing apparatus, information processing method, and program
JP7502520B2 (en) ROBOT, ROBOT CONTROL METHOD AND PROGRAM
US20210204785A1 (en) Artificial intelligence moving agent
CN110297488A (en) Autonomous device, the control method of autonomous device and storage medium
US11938625B2 (en) Information processing apparatus, information processing method, and program
KR102293332B1 (en) Pet robot equipped with artificial intelligence
JP4296736B2 (en) Robot device
KR20150020954A (en) Cleaning Robot Expressing Emotional Reaction
JP2007125629A (en) Robot device and motion control method
CN117557598B (en) Household safety control method for pets and related device
KR20240082442A (en) Method and system for controlling pet robot device that identifies user's grade in different way for each mode
WO2022201186A1 (en) Artificially intelligent sports companion device
US20210197393A1 (en) Information processing device, information processing method, and program
CN118715498A (en) Interactive display system for dogs, operation method thereof and interactive display device for dogs

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant