KR20210101015A - Companion exercise training method using autonomous driving robot - Google Patents

Companion exercise training method using autonomous driving robot Download PDF

Info

Publication number
KR20210101015A
KR20210101015A KR1020200015110A KR20200015110A KR20210101015A KR 20210101015 A KR20210101015 A KR 20210101015A KR 1020200015110 A KR1020200015110 A KR 1020200015110A KR 20200015110 A KR20200015110 A KR 20200015110A KR 20210101015 A KR20210101015 A KR 20210101015A
Authority
KR
South Korea
Prior art keywords
companion animal
autonomous driving
driving robot
user
user terminal
Prior art date
Application number
KR1020200015110A
Other languages
Korean (ko)
Other versions
KR102402168B1 (en
Inventor
정석찬
배주용
배웅빈
김동현
문혜연
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020200015110A priority Critical patent/KR102402168B1/en
Publication of KR20210101015A publication Critical patent/KR20210101015A/en
Application granted granted Critical
Publication of KR102402168B1 publication Critical patent/KR102402168B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/027Exercising equipment, e.g. tread mills, carousels
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K5/00Feeding devices for stock or game ; Feeding wagons; Feeding stacks
    • A01K5/02Automatic devices
    • A01K5/0291Automatic devices with timing mechanisms, e.g. pet feeders
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Birds (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Zoology (AREA)
  • Toys (AREA)

Abstract

The present invention relates to a companion animal exercise and training method using an autonomous driving robot to compensate for lack of exercise of a companion animal. According to one embodiment of the present invention, the companion animal exercise and training method comprises the following steps: partially opening an opening part provided in an autonomous driving robot to accommodate snacks for a companion animal in response to a control signal from a user terminal or at time preset through the user terminal; moving the autonomous driving robot according to a driving route set by using biometric information of the companion animal; detecting location information of the companion animal and information on a distance of the companion animal from the autonomous driving robot on the basis of a signal received from a sensor module attached to a body part of the companion animal; operating an air circulation unit provided in the opening part on the basis of distance information so that smell of snacks for the companion animal is leaked to the outside of the opening part; and extracting an activity score for evaluating exercise performance of the companion animal on the basis of the location information and determining the amount of feed discharged through the opening part on the basis of the extracted activity score.

Description

자율주행로봇을 이용한 반려동물 운동훈련 방법{COMPANION EXERCISE TRAINING METHOD USING AUTONOMOUS DRIVING ROBOT}Companion animal exercise training method using autonomous driving robot {COMPANION EXERCISE TRAINING METHOD USING AUTONOMOUS DRIVING ROBOT}

본 발명은 자율주행로봇을 이용한 반려동물 운동훈련 방법에 관한 것이다. 보다 상세하게는 사용자 단말로부터의 제어신호에 의하거나 사용자 단말을 통해 미리 설정된 시간이 되면 자율주행로봇 내에 마련되어 반려동물용 간식이 수용된 개방부가 일부 개방되는 단계, 자율주행로봇이 반려동물의 생체정보를 이용하여 설정된 주행 경로에 따라 이동하는 단계, 반려동물의 신체 일부에 부착된 센서모듈로부터 수신한 신호에 기초하여 반려동물의 위치정보 및 반려동물의 자율주행로봇으로부터의 거리정보를 감지하는 단계, 거리정보에 기초하여 개방부에 마련된 공기순환부를 동작시킴으로써 반려동물용 간식의 냄새가 개방부 외부로 유출되는 단계 및 위치정보에 기초하여 반려동물의 운동수행능력을 평가하기 위한 활동스코어를 도출하고, 도출된 활동스코어에 기초하여 개방부를 통해 배출되는 사료의 양이 결정되는 단계를 포함하는 자율주행로봇을 이용한 반려동물 운동훈련 방법에 관한 것이다.The present invention relates to a companion animal exercise training method using an autonomous driving robot. In more detail, when a preset time is reached by a control signal from the user terminal or through the user terminal, the opening part provided in the autonomous driving robot and containing snacks for companion animals is partially opened. moving according to a set driving route using the use of a companion animal, detecting the location information of the companion animal and distance information from the autonomous driving robot of the companion animal based on the signal received from the sensor module attached to the body part of the companion animal, the distance By operating the air circulation unit provided in the open part based on the information, the activity score for evaluating the exercise performance of the companion animal is derived and derived based on the step and location information of the smell of the companion animal snack leaking out to the outside of the opening It relates to a companion animal exercise training method using an autonomous driving robot comprising the step of determining the amount of feed discharged through an opening based on the obtained activity score.

반려동물 보유 가구의 증가로 반려동물 시장 규모도 상승하고 있다. 1인 가구 규모의 추이를 보았을 때 2030년 2명 중 1명이 나홀로 족이라는 통계가 예측되고 있다. 1인 가구가 증가함에 따라 반려동물과 함께하는 현대인도 늘어나고 있다. 반려동물은 현대인에게 가족 구성원의 일원으로 여겨지고 있다. 하지만, 바쁜 일상 생활, 출장 및 여행 등으로 반려동물을 집안에 혼자 남겨 놓을 수밖에 없는 상황이 자주 발생한다. 반려동물이 집안에 혼자 남겨진 상태로 방치될 경우에는 사람과 동일하게 우울증에 걸리거나 기억장애가 생기는 등 정신건강에 악영향을 미칠 수 있으며, 굶주림 등으로 육체적 질병에 걸릴 수 있다.As the number of households with companion animals increases, the size of the companion animal market is also increasing. When looking at the trend of the size of single-person households, it is predicted that by 2030, one in two people will be single. As the number of single-person households increases, the number of modern people with companion animals is also increasing. Pets are considered a member of the family in modern times. However, due to busy daily life, business trips, and travel, there are often situations in which you have no choice but to leave your pet alone at home. If a companion animal is left alone in the house, it can adversely affect mental health, such as depression or memory impairment, just like humans, and can lead to physical diseases such as hunger.

반려동물의 시간은 사람보다 6배 정도 빠르게 흘러가며 외로움으로 인한 우울증을 가진 반려동물 4마리 중 1마리, 부족한 운동량과 잘못된 식습관으로 과체중인 반려동물은 56%에 달한다. 출근 등 다양한 이유로 혼자 남게되는 반려동물은 무기력하고 반복되는 생활, 부족한 운동량과 식습관 또는 문제행동 등으로 과체중과 분리불안증세를 보일 수 있다.Time for companion animals passes six times faster than humans, and 1 in 4 companion animals with depression due to loneliness, and 56% of companion animals who are overweight due to insufficient exercise and bad eating habits. Pets left alone for various reasons, such as to work, may show symptoms of overweight and separation anxiety due to a lethargic and repeated life, insufficient amount of exercise, eating habits, or problematic behaviors.

대한민국 공개특허공보 제10-2001-0047952호 (공개일자: 2001.08.09)Republic of Korea Patent Publication No. 10-2001-0047952 (published date: August 09, 2001)

본 발명은 전술한 바와 같은 문제점을 해결하기 위한 것으로써 보호자가 집을 비우더라도 1인 가구 내 반려동물에게 흥미를 유발시키면서 부족한 운동량을 보충해줄 수 있는 자율주행로봇을 이용한 반려동물 운동훈련 방법을 제공하고자 함에 그 목적이 있다.The present invention is to solve the above-mentioned problems, and to provide a companion animal exercise training method using an autonomous driving robot that can supplement the insufficient amount of exercise while stimulating interest in companion animals in a single household even if the guardian is away from home. It has its purpose in

본 발명의 일 실시 예에 있어서, 자율주행로봇을 이용한 반려동물 운동훈련 방법이 제공될 수 있다. In an embodiment of the present invention, a companion animal exercise training method using an autonomous driving robot may be provided.

본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법은 사용자 단말로부터의 제어신호에 의하거나 사용자 단말을 통해 미리 설정된 시간이 되면 자율주행로봇 내에 마련되어 반려동물용 간식이 수용된 개방부가 일부 개방되는 단계, 자율주행로봇이 반려동물의 생체정보를 이용하여 설정된 주행 경로에 따라 이동하는 단계, 반려동물의 신체 일부에 부착된 센서모듈로부터 수신한 신호에 기초하여 반려동물의 위치정보 및 반려동물의 자율주행로봇으로부터의 거리정보를 감지하는 단계, 거리정보에 기초하여 개방부에 마련된 공기순환부를 동작시킴으로써 반려동물용 간식의 냄새가 개방부 외부로 유출되는 단계 및 위치정보에 기초하여 반려동물의 운동수행능력을 평가하기 위한 활동스코어를 도출하고, 도출된 활동스코어에 기초하여 개방부를 통해 배출되는 반려동물용 간식의 양이 결정되는 단계를 포함할 수 있다.In a companion animal exercise training method using an autonomous driving robot according to an embodiment of the present invention, when a preset time is reached according to a control signal from a user terminal or through a user terminal, an opening part is provided in the autonomous driving robot to accommodate companion animal snacks. Partially opened step, the autonomous driving robot moves along a set driving route using the companion animal’s biometric information, the companion animal’s location information and companion animal based on a signal received from a sensor module attached to a part of the companion animal’s body Sensing the distance information from the autonomous driving robot of the animal, the step of leaking the smell of the companion animal snack to the outside of the opening by operating the air circulation unit provided in the opening based on the distance information, and the companion animal based on the location information It may include a step of deriving an activity score for evaluating the exercise performance of the person, and determining the amount of snacks for companion animals discharged through the opening based on the derived activity score.

본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법에 있어서, 반려동물용 간식의 냄새가 개방부 외부로 유출되는 단계에서는, 거리정보에 기초하여 반려동물이 제 2 영역에 위치하는 것으로 판단된다면 자율주행로봇이 반려동물 방향으로 반려동물이 제 1 영역에 위치할때까지 이동하고, 반려동물이 제 1 영역에 위치하는 것으로 판단된다면 공기순환부의 출력을 반려동물과 자율주행로봇 간 이격거리에 비례하도록 동작시키고, 제 1 영역은 자율주행로봇을 중심으로 미리 결정된 기준길이를 반지름으로 하는 가상의 원을 포함하는 영역이고, 제 2 영역은 반려동물의 생활영역 중 제 1 영역을 제외한 영역인 것일 수 있다.In the companion animal exercise training method using the autonomous driving robot according to an embodiment of the present invention, in the step of leaking the smell of the companion animal snack to the outside of the opening, the companion animal is located in the second area based on the distance information If it is determined that the autonomous driving robot moves in the direction of the companion animal until the companion animal is located in the first area, if it is determined that the companion animal is located in the first area, the output of the air circulation unit is transmitted between the companion animal and the autonomous driving robot. The operation is proportional to the separation distance, the first area is an area including a virtual circle having a predetermined reference length as the radius of the autonomous driving robot as the center, and the second area is a living area of the companion animal except for the first area. It may be an area.

본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법에 있어서, 사용자 단말은 사용자의 모든 손가락 말단부에 대응되도록 설치된 감압 센서, 사용자의 손가락 첫째마디부터 셋째마디에 대응되도록 설치된 플렉스 센서, 사용자의 검지 손가락의 말단부에 설치된 자이로센서, 자율주행로봇(100)와 통신하기 위한 통신모듈, 하나 이상의 인스트럭션을 저장하는 저장모듈 및 저장모듈에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는 감압 센서로부터 획득한 제 1 센싱 데이터로부터 가상 쿼티 키보드를 입력하는 입력신호를 판단하고, 플렉스 센서로부터 획득한 제 2 센싱 데이터로부터 가상 쿼티 키보드에서 입력신호가 검출된 위치를 판단하며, 자이로센서로부터 획득한 제 3 센싱 데이터로부터 검지 손가락으로부터 입력된 입력신호의 위치를 판단한 결과에 기초하여 출력신호를 생성하고, 통신모듈을 이용하여 출력신호를 사용자 신호로써 자율주행로봇으로 전송할 수 있다.In the companion animal exercise training method using the autonomous driving robot according to an embodiment of the present invention, the user terminal includes a pressure sensor installed to correspond to the distal end of all fingers of the user, and a flex sensor installed to correspond to the first to third joints of the user's fingers. , a gyro sensor installed at the distal end of the user's index finger, a communication module for communicating with the autonomous driving robot 100, a storage module for storing one or more instructions, and a processor for executing one or more instructions stored in the storage module, including a processor determines the input signal for inputting the virtual QWERTY keyboard from the first sensing data obtained from the pressure sensor, and determines the position where the input signal is detected from the virtual QWERTY keyboard from the second sensing data obtained from the flex sensor, from the gyro sensor An output signal may be generated based on the result of determining the position of the input signal input from the index finger from the obtained third sensing data, and the output signal may be transmitted to the autonomous driving robot as a user signal using the communication module.

본 발명의 자율주행로봇을 이용한 반려동물 운동훈련 방법에 의하면 보호자가 집을 비우더라도 1인 가구 내 반려동물에게 흥미를 유발시키면서 부족한 운동량을 보충해줄 수 있는 효과가 있다.According to the companion animal exercise training method using the autonomous driving robot of the present invention, even if the guardian is away from home, there is an effect of stimulating the interest in the companion animal in the single-person household and supplementing the insufficient amount of exercise.

도 1은 본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법을 이용하여 자율주행로봇이 반려동물을 운동시키고 있는 상태를 나타낸 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법에 있어서, 제 1 영역 및 제 2 영역을 나타내기 위한 예시도이다.
도 3 내지 도 4는 본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법에 있어서, 사용자 단말을 통해 제공되는 유저 인터페이스 화면을 나타낸 예시도이다.
도 5는 본 발명의 일 실시 예에 따른 자율주행로봇을 이용한 반려동물 운동훈련 방법에 있어서, 사용자 단말의 일 예를 나타낸 예시도이다.
1 is an exemplary diagram illustrating a state in which an autonomous driving robot is exercising a companion animal using the companion animal exercise training method using the autonomous driving robot according to an embodiment of the present invention.
2 is an exemplary diagram illustrating a first area and a second area in a companion animal exercise training method using an autonomous driving robot according to an embodiment of the present invention.
3 to 4 are exemplary views illustrating a user interface screen provided through a user terminal in a companion animal exercise training method using an autonomous driving robot according to an embodiment of the present invention.
5 is an exemplary diagram illustrating an example of a user terminal in a companion animal exercise training method using an autonomous driving robot according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다. When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. . In addition, when a part is "connected" to another part throughout the specification, it includes not only a case in which it is "directly connected" but also a case in which it is connected "with another element in the middle".

도 1은 본 발명의 일 실시 예에 따른 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법을 이용하여 자율주행로봇(100)이 반려동물을 운동시키고 있는 상태를 나타낸 예시도이고, 도 2는 본 발명의 일 실시 예에 따른 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법에 있어서, 제 1 영역(41) 및 제 2 영역(42)을 나타내기 위한 예시도이며, 도 3 내지 도 4는 본 발명의 일 실시 예에 따른 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법에 있어서, 사용자 단말을 통해 제공되는 유저 인터페이스 화면을 나타낸 예시도이다. 이하에서는 상기에서 설명한 도면을 참고하여 본 발명을 상세히 설명하기로 한다.1 is an exemplary diagram illustrating a state in which an autonomous driving robot 100 is exercising a companion animal using the companion animal exercise training method using the autonomous driving robot 100 according to an embodiment of the present invention, and FIG. In the companion animal exercise training method using the autonomous driving robot 100 according to an embodiment of the present invention, it is an exemplary view showing the first area 41 and the second area 42 , and FIGS. 3 to 4 . is an exemplary diagram illustrating a user interface screen provided through a user terminal in the companion animal exercise training method using the autonomous driving robot 100 according to an embodiment of the present invention. Hereinafter, the present invention will be described in detail with reference to the drawings described above.

본 발명의 일 실시 예에 있어서, 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법이 제공될 수 있다. 본 명세서에서 반려동물(20)의 종류에는 제한이 없고, 강아지, 고양이를 포함한 다양한 종류의 반려동물(20)이 포함될 수 있다.In an embodiment of the present invention, a companion animal exercise training method using the autonomous driving robot 100 may be provided. In the present specification, the type of companion animal 20 is not limited, and various types of companion animals 20 including dogs and cats may be included.

본 발명의 일 실시 예에 따른 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법은 사용자 단말로부터의 제어신호에 의하거나 사용자 단말을 통해 미리 설정된 시간이 되면 자율주행로봇(100) 내에 마련되어 반려동물용 간식(30)이 수용된 개방부(110)가 일부 개방되는 단계, 자율주행로봇(100)이 반려동물(20)의 생체정보를 이용하여 설정된 주행 경로에 따라 이동하는 단계, 반려동물(20)의 신체 일부에 부착된 센서모듈로부터 수신한 신호에 기초하여 반려동물(20)의 위치정보 및 반려동물(20)의 자율주행로봇(100)으로부터의 거리정보를 감지하는 단계, 거리정보에 기초하여 개방부(110)에 마련된 공기순환부를 동작시킴으로써 반려동물용 간식(30)의 냄새가 개방부(110) 외부로 유출되는 단계 및 위치정보에 기초하여 반려동물(20)의 운동수행능력을 평가하기 위한 활동스코어를 도출하고, 도출된 활동스코어에 기초하여 개방부(110)를 통해 배출되는 반려동물용 간식의 양이 결정되는 단계를 포함할 수 있다.The companion animal exercise training method using the autonomous driving robot 100 according to an embodiment of the present invention is provided in the autonomous driving robot 100 according to a control signal from a user terminal or when a preset time is reached through the user terminal. The step of partially opening the opening 110 in which the snack 30 is accommodated, the step of moving the autonomous driving robot 100 according to the driving route set using the biometric information of the companion animal 20, the step of the companion animal 20 Detecting location information of the companion animal 20 and distance information from the autonomous driving robot 100 of the companion animal 20 based on a signal received from a sensor module attached to a body part of the To evaluate the exercise performance of the companion animal 20 based on the step and location information in which the smell of the snack for companion animal 30 flows out of the opening 110 by operating the air circulation unit provided in the opening 110 . It may include a step of deriving an activity score for the purpose, and determining the amount of the companion animal snack discharged through the opening part 110 based on the derived activity score.

일 개시에 따른 자율주행로봇(100)은 자율적으로 이동 가능한 이동체로써 자율주행로봇(100) 내 제어부에 의하여 동작될 수 있고, 상기 자율주행로봇(100)에는 사용자 단말 및 반려동물(20)의 신체 일부에 부착된 센서모듈과 통신을 수행하기 위한 통신부가 포함될 수 있다.The autonomous driving robot 100 according to one disclosure is a moving object capable of autonomously moving, and may be operated by a control unit in the autonomous driving robot 100 , and the autonomous driving robot 100 includes a user terminal and a body of a companion animal 20 . A communication unit for performing communication with the sensor module attached to the part may be included.

제어부는, 예를 들면, 소프트웨어 혹은 프로그램을 구동하여 제어부에 연결된 자율주행로봇(100)의 적어도 하나의 다른 구성요소( Ex. 하드웨어 또는 소프트웨어 구성요소 )를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 제어부는 다른 구성요소( Ex. 통신부 )로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 제어부는 메인 프로세서( Ex. 중앙 처리 장치 또는 어플리케이션 프로세서 ), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서( Ex. 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서 )를 포함할 수 있다. 여기서, 보조 프로세서는 메인 프로세서와 별개로 또는 임베디드(Embedded)되어 운영될 수 있다.The control unit may, for example, drive software or a program to control at least one other component (Ex. hardware or software component) of the autonomous driving robot 100 connected to the control unit, and perform various data processing and calculations. can be done The control unit may load a command or data received from another component (Ex. communication unit) into a volatile memory for processing, and store the result data in a non-volatile memory. The control unit operates independently of the main processor (Ex. central processing unit or application processor), and additionally or alternatively, uses less power than the main processor, or a secondary processor (Ex. graphic processing unit, image signal processor, sensor hub processor, or communication processor). Here, the auxiliary processor may be operated separately from or embedded in the main processor.

또한, 본 발명의 일 실시 예에 따른 자율주행로봇(100)에는 통신부가 포함될 수 있다. 통신부는 후술하는 사용자 단말 및 타 디바이스와 유선 또는 무선 통신 채널의 수립 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신부는 제어부와 독립적으로 운영되는 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 상기 통신부는 무선 통신 모듈( Ex. 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈 ) 또는 유선 통신 모듈( Ex. LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈 )을 포함할 수 있다.In addition, the autonomous driving robot 100 according to an embodiment of the present invention may include a communication unit. The communication unit may support establishment of a wired or wireless communication channel with a user terminal and other devices, which will be described later, and performing communication through the established communication channel. The communication unit may include one or more communication processors that support wired communication or wireless communication operated independently of the control unit. The communication unit is a wireless communication module (Ex. cellular communication module, short-range wireless communication module, or GNSS (global navigation satellite system) communication module) or wired communication module (Ex. LAN (local area network) communication module, or power line communication module) may include.

또한, 일 개시에 따른 자율주행로봇(100)의 일 측에는 반려동물용 간식(30)이 수용된 개방부(110)가 마련되어 있을 수 있다. 상기 개방부(110)는 육면체 형태로 형성될 수 있다.In addition, an opening 110 in which the snack 30 for companion animals is accommodated may be provided on one side of the autonomous driving robot 100 according to the disclosure. The opening 110 may be formed in a hexahedral shape.

일 개시에 따른 개방부(110)는 상기 개방부(110)의 측면에 복수개의 프레임(111)들이 격자 형태로 마련되어 상기 개방부(110)의 내측과 외측 간 공기 등 기체가 전달될 수 있다. 개방부(110)의 하측면(112)은 상기 개방부(110) 측면 일부와 힌지 결합 형태로 연결되어 회전될 수 있다. 즉, 개방부(110)의 내측에는 반려동물용 간식(30)이 수용되는데 상기 반려동물용 간식(30)이 개방부(110)의 내부에서 외부로 이동하거나 외부에서부터 내부로 이동할 때 상기 개방부(110)의 하측면(112)을 통해 이동할 수 있다. 자율주행로봇(100)에는 상기 개방부(110)의 하측면(112)의 회전 이동을 제어하기 위한 구동부(미도시)가 마련되어 있을 수 있고, 상기 자율주행로봇(100)의 제어부에 의한 동작 신호에 기초하여 상기 구동부의 동작에 따라 상기 개방부(110)의 하측면(112)이 회전 이동할 수 있다.In the opening 110 according to one disclosure, a plurality of frames 111 are provided in a lattice form on a side surface of the opening 110 so that gas, such as air, may be transferred between the inside and the outside of the opening 110 . The lower side 112 of the opening 110 may be rotated by being connected to a portion of the side of the opening 110 in a hinged form. That is, the snack for companion animal 30 is accommodated inside the opening 110 . When the snack for companion animal 30 moves from the inside of the opening 110 to the outside or from the outside to the inside, the opening part It can move through the lower side 112 of 110 . The autonomous driving robot 100 may be provided with a driving unit (not shown) for controlling the rotational movement of the lower surface 112 of the open part 110 , and an operation signal by the control unit of the autonomous driving robot 100 . Based on the operation of the driving unit, the lower surface 112 of the opening 110 may be rotated.

일 개시에 따르면, 상기 제어신호는 상기 사용자 단말에 의해 상기 자율주행로봇(100)이 동작되도록 하기 위한 신호일 수 있다. 즉, 상기 제어신호를 수신하면 상기 자율주행로봇(100)은 개방부(110) 일부를 개방하여 상기 반려동물용 간식(30)의 냄새가 상기 개방부(110) 외부로 흘러가도록 할 수 있다. According to one disclosure, the control signal may be a signal for operating the autonomous driving robot 100 by the user terminal. That is, upon receiving the control signal, the autonomous driving robot 100 may open a part of the opening 110 so that the smell of the snack 30 for companion animals flows to the outside of the opening 110 .

일 개시에 따른 시작시간은 사용자 단말에 의해 미리 설정될 수 있다. 즉, 자율주행로봇(100)은 미리 설정된 시작시간이 되면 개방부(110) 일부를 개방하는 동작을 개시할 수 있다.The start time according to one start may be preset by the user terminal. That is, the autonomous driving robot 100 may start an operation of opening a part of the opening part 110 when a preset start time arrives.

일 개시에 따른 개방부(110) 일부 개방은 전술한 개방부(110)의 하측면(112)의 일부 회전을 통한 개방을 나타낼 수 있다. 즉, 사용자 단말로부터의 제어신호 또는 상기 시작시간이 도달하면 개방부(110)의 하측면(112)은 지면을 향하여 소정의 각도만큼 회전할 수 있다. 일 개시에 따른 소정의 각도는 상기 반려동물용 간식(30)이 개방부(110) 외부로 빠져나가지 않을 정도의 각도일 수 있다. 즉, 상기 개방부(110)의 하측면(112)이 지면을 향하여 소정의 각도만큼 회전하더라도 개방부(110) 내측에 수용된 반려동물용 간식(30)은 여전히 개방부(110) 내측에 수용되어 있을 수 있다.Partial opening of the opening 110 according to one disclosure may indicate opening through partial rotation of the lower surface 112 of the above-described opening 110 . That is, when the control signal from the user terminal or the start time arrives, the lower surface 112 of the opening 110 may be rotated toward the ground by a predetermined angle. The predetermined angle according to one disclosure may be an angle such that the snack for companion animals 30 does not escape to the outside of the opening 110 . That is, even if the lower side 112 of the opening 110 rotates by a predetermined angle toward the ground, the snack 30 for companion animals accommodated inside the opening 110 is still accommodated inside the opening 110 , there may be

일 개시에 따른 자율주행로봇(100)은 반려동물(20)의 생체정보를 이용하여 주행경로를 설정할 수 있고, 상기 설정된 주행경로에 따라 이동될 수 있다. 상기 생체정보는 반려동물(20)의 종류, 체형, 몸무게, 크기 및 건강상태를 모두 포함할 수 있다. 또한, 상기 생체정보는 반려동물(20)의 1일 필요 운동량을 더 포함할 수 있다. 상기 1일 필요 운동량은 상기 반려동물(20)의 반려동물(20)의 종류, 체형, 몸무게, 크기 및 건강상태에 기초하여 미리 결정된 정보일 수 있다. 즉, 자율주행로봇(100)은 반려동물(20)의 몸무게 및 건강상태를 고려하여 1일 필요 운동량을 예를 들면, 150 kcal로 결정할 수 있고, 상기 결정된 1일 필요 운동량에 따라 상기 반려동물(20)이 이동할 운동거리를 결정할 수 있으며, 상기 결정된 운동거리에 기초하여 반려동물(20)의 생활영역(40) 내에서의 주행경로를 생성할 수 있다. 예를 들면, 반려동물(20)이 150 kcal 만큼 소비하기 위해 500m 만큼 5km/h의 속도로 이동할 수 있는 주행경로를 생성할 수 있다. 일 개시에 따른 반려동물(20)의 생활영역(40)은 사용자와 반려동물(20)이 함께 생활하는 공간일 수 있다.The autonomous driving robot 100 according to one disclosure may set a driving route using the biometric information of the companion animal 20 and may move according to the set driving route. The biometric information may include all of the type, body type, weight, size, and health status of the companion animal 20 . In addition, the biometric information may further include a daily required amount of exercise of the companion animal 20 . The daily required exercise amount may be information predetermined based on the type, body type, weight, size, and health condition of the companion animal 20 of the companion animal 20 . That is, the autonomous driving robot 100 may determine the required daily exercise amount as, for example, 150 kcal in consideration of the weight and health condition of the companion animal 20, and according to the determined daily required exercise amount, the companion animal ( 20) may determine the movement distance to move, and based on the determined movement distance, a travel route within the living area 40 of the companion animal 20 may be generated. For example, it is possible to create a driving route in which the companion animal 20 can move at a speed of 5 km/h by 500 m in order to consume as much as 150 kcal. The living area 40 of the companion animal 20 according to the disclosure may be a space in which the user and the companion animal 20 live together.

일 개시에 따르면 반려동물(20)의 신체 일부에는 센서모듈이 부착되어 있을 수 있다. 상기 센서모듈은 반려동물(20)의 위치를 확인하기 위한 것으로 GPS, 레이다, 라이다 등 다양한 센서를 이용하여 상기 반려동물(20)의 위치정보 및 상기 반려동물(20)의 자율주행로봇(100)으로부터의 거리정보가 도출될 수 있다. 상기 센서모듈에는 상기 자율주행로봇(100)과 데이터 송수신이 가능하도록 하기 위한 통신장치가 더 마련되어 있을 수 있다.According to one disclosure, a sensor module may be attached to a part of the body of the companion animal 20 . The sensor module is for confirming the location of the companion animal 20 and uses various sensors such as GPS, radar, and lidar to provide location information of the companion animal 20 and the autonomous driving robot 100 of the companion animal 20 ) from the distance information can be derived. The sensor module may further include a communication device for enabling data transmission/reception with the autonomous driving robot 100 .

본 발명의 일 실시 예에 따른 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법에 있어서, 반려동물용 간식(30)의 냄새가 개방부(110) 외부로 유출되는 단계에서는, 거리정보에 기초하여 반려동물(20)이 제 2 영역(42)에 위치하는 것으로 판단된다면 자율주행로봇(100)이 반려동물(20) 방향으로 반려동물(20)이 제 1 영역(41)에 위치할때까지 이동하고, 반려동물(20)이 제 1 영역(41)에 위치하는 것으로 판단된다면 공기순환부의 출력을 반려동물(20)과 자율주행로봇(100) 간 이격거리에 비례하도록 동작시키고, 제 1 영역(41)은 자율주행로봇(100)을 중심으로 미리 결정된 기준길이를 반지름으로 하는 가상의 원을 포함하는 영역이고, 제 2 영역(42)은 반려동물(20)의 생활영역(40) 중 제 1 영역(41)을 제외한 영역인 것일 수 있다.In the companion animal exercise training method using the autonomous driving robot 100 according to an embodiment of the present invention, in the step in which the smell of the companion animal snack 30 is leaked to the outside of the opening 110, based on distance information Thus, if it is determined that the companion animal 20 is located in the second area 42 , the autonomous driving robot 100 moves in the direction of the companion animal 20 until the companion animal 20 is located in the first area 41 . If it moves and it is determined that the companion animal 20 is located in the first area 41, the output of the air circulation unit is operated to be proportional to the separation distance between the companion animal 20 and the autonomous driving robot 100, and the first area Reference numeral 41 denotes an area including an imaginary circle having a predetermined reference length as a radius around the autonomous driving robot 100 , and the second area 42 is the first of the living areas 40 of the companion animal 20 . It may be an area other than the first area 41 .

즉, 반려동물(20)이 제 2 영역(42)에 위치한 것으로 판단된다면 반려동물(20)이 반려동물용 간식(30)의 냄새에 자극하여 상기 자율주행로봇(100)을 따라 움직이도록 상기 자율주행로봇(100)이 상기 반려동물(20) 방향으로 이동할 수 있다.That is, if it is determined that the companion animal 20 is located in the second region 42 , the companion animal 20 is stimulated by the smell of the companion animal snack 30 to move along the autonomous driving robot 100 . The traveling robot 100 may move in the direction of the companion animal 20 .

상기 반려동물(20)이 제 1 영역(41)에 위치한 것으로 판단된다면 상기 공기순환부의 출력을 상기 이격거리에 비례하도록 동작시킴으로써 상기 반려동물(20)에 대하여 상기 반려동물용 간식(30)에 대한 자극이 극대화되도록 하여 상기 반려동물(20)의 이동속도를 증가시킬 수 있고, 상기 반려동물(20)이 상기 제 1 영역(41) 내에서 상기 자율주행로봇(100)을 따라 이동하도록 할 수 있다.If it is determined that the companion animal 20 is located in the first area 41, the output of the air circulation unit is operated to be proportional to the separation distance, thereby providing the companion animal 20 with respect to the companion animal snack 30. By maximizing the stimulus, the moving speed of the companion animal 20 can be increased, and the companion animal 20 can be made to move along the autonomous driving robot 100 within the first area 41 . .

일 개시에 따른 공기순환부(미도시)는 상기 개방부(110)의 상측면에 부착되어 있을 수 있다. 상기 공기순환부는 자율주행로봇(100)의 제어부의 동작신호에 기초하여 동작될 수 있으며 반려동물(20)과 자율주행로봇(100) 간 이격거리가 가까워질수록 상기 공기순환부의 출력을 높일 수 있다. 즉, 공기순환부는 반려동물(20)이 자율주행로봇(100)을 따라 움직이도록 하기 위하여 상기 반려동물용 간식(30)의 냄새가 반려동물(20)을 향하여 더욱 빠르게 전달할 수 있다.The air circulation unit (not shown) according to one disclosure may be attached to the upper surface of the opening 110 . The air circulation unit may be operated based on an operation signal of the control unit of the autonomous driving robot 100, and as the separation distance between the companion animal 20 and the autonomous driving robot 100 becomes closer, the output of the air circulation unit may be increased. . That is, the air circulation unit can more rapidly deliver the smell of the companion animal snack 30 toward the companion animal 20 so that the companion animal 20 moves along with the autonomous driving robot 100 .

본 발명의 일 실시 예에 따른 자율주행로봇(100)을 이용한 반려동물 운동훈련 방법에 있어서, 사용자 단말은 사용자의 모든 손가락 말단부에 대응되도록 설치된 감압 센서, 사용자의 손가락 첫째마디부터 셋째마디에 대응되도록 설치된 플렉스 센서, 사용자의 검지 손가락의 말단부에 설치된 자이로센서, 자율주행로봇(100)와 통신하기 위한 통신모듈, 하나 이상의 인스트럭션을 저장하는 저장모듈 및 저장모듈에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는 감압 센서로부터 획득한 제 1 센싱 데이터로부터 가상 쿼티 키보드를 입력하는 입력신호를 판단하고, 플렉스 센서로부터 획득한 제 2 센싱 데이터로부터 가상 쿼티 키보드에서 입력신호가 검출된 위치를 판단하며, 자이로센서로부터 획득한 제 3 센싱 데이터로부터 검지 손가락으로부터 입력된 입력신호의 위치를 판단한 결과에 기초하여 출력신호를 생성하고, 통신모듈을 이용하여 출력신호를 사용자 신호로써 자율주행로봇으로 전송할 수 있다.In the companion animal exercise training method using the autonomous driving robot 100 according to an embodiment of the present invention, the user terminal includes a pressure sensor installed to correspond to the distal end of all fingers of the user, and to correspond to the first to third joints of the user's fingers. A flex sensor installed, a gyro sensor installed at the distal end of the user's index finger, a communication module for communicating with the autonomous driving robot 100, a storage module for storing one or more instructions, and a processor for executing one or more instructions stored in the storage module and, the processor determines an input signal for inputting the virtual QWERTY keyboard from the first sensing data obtained from the pressure sensor, and determines the position where the input signal is detected from the virtual QWERTY keyboard from the second sensing data obtained from the flex sensor, It is possible to generate an output signal based on the result of determining the position of the input signal input from the index finger from the third sensing data obtained from the gyro sensor, and transmit the output signal as a user signal to the autonomous driving robot using the communication module.

일 개시에 따르면, 위치정보에 기초하여 반려동물의 운동수행능력을 평가하기 위한 활동스코어가 도출될 수 있다. 일 개시에 따른 활동스코어(

Figure pat00001
)는 하기 수학식 1에 기초하여 결정될 수 있다.According to one disclosure, an activity score for evaluating the exercise performance of a companion animal may be derived based on location information. Activity score according to the start of work (
Figure pat00001
) may be determined based on Equation 1 below.

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

여기서,

Figure pat00003
는 활동계수이고,
Figure pat00004
는 제 1 영역 내에서의 반려동물의 이동거리이며,
Figure pat00005
는 평균이동속도이며,
Figure pat00006
는 활동상수이며,
Figure pat00007
는 자율주행로봇이 개방부 일부를 개방한 시점부터 반려동물이 제 1 영역에 위치하고 있는 시간의 총 합이며,
Figure pat00008
는 자율주행로봇이 개방부 일부를 개방한 시점부터 반려동물이 제 2 영역에 위치하고 있는 시간의 총 합일 수 있다.here,
Figure pat00003
is the activity coefficient,
Figure pat00004
is the moving distance of the companion animal in the first area,
Figure pat00005
is the average moving speed,
Figure pat00006
is the activity constant,
Figure pat00007
is the sum of the time the companion animal is located in the first area from the time when the autonomous driving robot partially opened the opening,
Figure pat00008
may be the total of the time the companion animal is located in the second area from the time when the autonomous driving robot partially opens the opening.

일 개시에 따르면, 상기 활동스코어에 비례하도록 반려동물용 간식의 양이 결정될 수 있다. 상기 반려동물용 간식은 상기 간식의 개수, 무게, 칼로리 등의 단위에 기초하여 반려동물용 간식의 양을 나타낼 수 있다.According to one disclosure, the amount of snacks for companion animals may be determined in proportion to the activity score. The snack for companion animal may indicate the amount of the snack for companion animal based on units such as the number, weight, and calories of the snack.

즉, 반려동물의 활동량을 나타내는 활동스코어에 따라 반려동물에 대한 보상으로써 반려동물에게 간식의 양을 조절할 수 있다.That is, according to the activity score indicating the amount of activity of the companion animal, the amount of snacks for the companion animal can be adjusted as a reward for the companion animal.

일 개시에 따른 사용자 단말은 휴대성과 이동성이 보장되는 휴대용 이동식 단말로 구현될 수 있다. 상기 단말에는, 개인용 통신 장치(Personal Communication System, PCS), 이동통신 글로벌 시스템(Global System for Mobile communications, GSM), 디지털 셀룰러 통신장비(Personal Digital Cellular, PDC), 개인 통신 전화(Personal Handyphone System, PHS), 개인 정보 단말기(Personal Digital Assisatnt, PDA), 와이브로(Wireless Broadband Internet, WiBro) 단말, 스마트폰(Smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다. 특히, 사용자 단말은 휴대용 디바이스에 인터넷 통신과 정보 검색 등 컴퓨터 지원 기능을 추가한 지능형 디바이스로서, 사용자가 원하는 복수의 어플리케이션들을 설치하여 실행할 수 있는 스마트폰일 수 있다. 또한, 사용자 단말은 데스크탑, 랩탑 등의 범용 컴퓨터로 구현될 수 있을 뿐만 아니라, 자율주행 로봇의 제어를 위한 전용 단말의 형태로 구현될 수도 있다.The user terminal according to one disclosure may be implemented as a portable mobile terminal in which portability and mobility are guaranteed. The terminal includes a Personal Communication System (PCS), a Global System for Mobile communications (GSM), a Personal Digital Cellular (PDC), and a Personal Handyphone System (PHS). ), personal digital assistant (PDA), WiBro (Wireless Broadband Internet, WiBro) terminal, smartphone, tablet PC, etc. All kinds of handheld-based wireless communication devices may be included. . In particular, the user terminal is an intelligent device in which computer support functions such as Internet communication and information search are added to a portable device, and may be a smartphone capable of installing and executing a plurality of applications desired by the user. In addition, the user terminal may be implemented as a general-purpose computer such as a desktop or a laptop, and may also be implemented in the form of a dedicated terminal for controlling the autonomous driving robot.

도 5는 본 발명의 일 실시 예에 따른 프로그래밍 능력 향상을 위한 자율주행로봇(100)에 있어서, 사용자의 제어신호가 입력될 수 있는 웨어러블 장갑 형태의 사용자 단말을 나타낸 예시도이다.5 is an exemplary diagram illustrating a wearable glove type user terminal to which a user's control signal can be input in the autonomous driving robot 100 for improving programming ability according to an embodiment of the present invention.

도 6을 참조하면, 사용자 단말은, 사용자의 모든 손가락 말단부에 대응되도록 설치된 감압 센서, 사용자의 손가락 첫째마디부터 셋째마디에 대응되도록 설치된 플렉스 센서, 사용자의 검지 손가락의 말단부에 설치된 자이로센서, 자율주행로봇(100)과 통신하기 위한 통신모듈, 하나 이상의 인스트럭션을 저장하는 저장모듈 및 저장모듈에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는 감압 센서로부터 획득한 제 1 센싱 데이터로부터 가상 쿼티 키보드를 입력하는 입력신호를 판단하고, 플렉스 센서로부터 획득한 제 2 센싱 데이터로부터 가상 쿼티 키보드에서 입력신호가 검출된 위치를 판단하며, 자이로센서로부터 획득한 제 3 센싱 데이터로부터 검지 손가락으로부터 입력된 입력신호의 위치를 판단한 결과에 기초하여 출력신호를 생성하고, 통신모듈을 이용하여 출력신호를 사용자 신호로써 자율주행로봇으로 전송할 수 있다.Referring to FIG. 6 , the user terminal includes a pressure sensor installed to correspond to the distal end of all fingers of the user, a flex sensor installed to correspond to the first joint to the third joint of the user's finger, a gyro sensor installed to the distal end of the user's index finger, autonomous driving A communication module for communicating with the robot 100, a storage module for storing one or more instructions, and a processor for executing one or more instructions stored in the storage module, wherein the processor is a virtual QWERTY keyboard from the first sensing data obtained from the pressure-sensitive sensor Determine the input signal to input, determine the position where the input signal is detected in the virtual QWERTY keyboard from the second sensing data obtained from the flex sensor, the input signal input from the index finger from the third sensing data obtained from the gyro sensor It is possible to generate an output signal based on the result of determining the position of , and transmit the output signal as a user signal to the autonomous driving robot using a communication module.

이하에서는, 본 발명의 자율주행로봇(100)에 사용자 신호를 입력하기 위한 사용자 단말에 대하여 자세히 설명한다.Hereinafter, a user terminal for inputting a user signal to the autonomous driving robot 100 of the present invention will be described in detail.

일 개시에 의하여 사용자 단말(700)는 한 쌍의 장갑 형태로 제작될 수 있다. 일 개시에 의하여 사용자 단말(700)는 사용자가 손에 착용함으로써 입력을 수행하는 장치로서, 특히, 자판이 없는 키보드를 의미한다. 일 개시에 의하여 사용자 단말(700)는 사용자의 손 동작을 센서를 통해 인식하고, 손 동작이 의미하는 문자를 인식한 출력값을 무선 통신 모듈을 이용하여 자율주행로봇(100)으로 전송할 수 있다.According to one disclosure, the user terminal 700 may be manufactured in the form of a pair of gloves. According to one disclosure, the user terminal 700 is a device for performing an input by being worn on the user's hand, and in particular, refers to a keyboard without a keyboard. According to one disclosure, the user terminal 700 may recognize a user's hand motion through a sensor, and transmit an output value of recognizing a character meaning a hand motion to the autonomous driving robot 100 using a wireless communication module.

일 개시에 의하여, 사용자 단말(700)는 감압 센서(701)로부터 획득한 제 1 센싱 데이터로부터 가상 쿼티 키보드를 입력하는 입력신호를 판단하고, 플렉스 센서(711)로부터 획득한 제 2 센싱 데이터로부터 가상 쿼티 키보드에서 입력신호가 검출된 위치를 판단하고, 자이로센서(703)로부터 획득한 제 3 센싱 데이터로부터 검지 손가락으로부터 입력된 입력신호의 위치를 판단한 결과에 기초하여 출력신호를 생성하고, 통신 모듈을 통해 출력신호를 자율주행로봇(100)으로 전송할 수 있다.According to one disclosure, the user terminal 700 determines an input signal for inputting the virtual QWERTY keyboard from the first sensing data obtained from the pressure-sensitive sensor 701 , and virtual from the second sensing data obtained from the flex sensor 711 . Determine the position at which the input signal is detected in the QWERTY keyboard, and generate an output signal based on the result of determining the position of the input signal input from the index finger from the third sensing data obtained from the gyro sensor 703, and connect the communication module The output signal may be transmitted to the autonomous driving robot 100 through the

일 개시에 의하여, 사용자 단말(700)와 자율주행로봇(100)는 누가 호스트 또는 액세스 포인트 역할을 하느냐에 따라, 마스터 단말기와 슬레이브 단말기로 구분될 수 있다. 다시 말해, 페어링을 위해 식별자 즉, SSID(Service Set Identifier)를 생성하고 페어링을 수락하는 단말기가 마스터가 되고, 이러한 마스터 단말기에게 페어링을 요청하는 단말기가 슬레이브가 된다. 또한, 단말기는 마스터가 될 수도 있고 슬레이브가 될 수도 있다. 또한, 단말기는 이러한 페어링 기능을 수행하는 어플리케이션을 온라인 마켓에서 다운로드하여 설치할 수 있다. 또한, 단말기는 클라우드 컴퓨팅(Cloud Computing) 서비스를 제공하는 클라우드 서버로부터 어플리케이션을 제공받아 이용할 수 있다. According to one disclosure, the user terminal 700 and the autonomous driving robot 100 may be divided into a master terminal and a slave terminal according to who serves as a host or an access point. In other words, a terminal that generates an identifier, that is, an SSID (Service Set Identifier) for pairing and accepts pairing becomes a master, and a terminal that requests pairing from such a master terminal becomes a slave. Also, the terminal may be a master or a slave. Also, the terminal may download and install an application for performing such a pairing function from an online market. Also, the terminal may receive and use an application from a cloud server that provides a cloud computing service.

일 개시에 의하여, 사용자 단말(700)는 적어도 세 종류 이상의 센서를 이용하여 사용자의 손동작을 인식할 수 있다. 보다 구체적으로 사용자 단말(700)는 감압 센서(701), 플렉스센서(711) 및 자이로센서(703)를 이용하여 사용자의 손동작을 인식하고 인식한 손동작으로부터 사용자가 입력하고자한 문자 등을 출력값으로서 자율주행로봇(100)으로 전송할 수 있다.According to one disclosure, the user terminal 700 may recognize a user's hand gesture using at least three types of sensors. More specifically, the user terminal 700 recognizes the user's hand gestures using the pressure-sensitive sensor 701, the flex sensor 711, and the gyro sensor 703, and autonomously selects the characters desired to be input by the user from the recognized hand gestures as output values. It can be transmitted to the driving robot 100 .

일 개시에 의하여 감압 센서(701)는 사용자의 모든 손가락 말단부 위치에 대응하도록 설치될 수 있으며, 사용자가 가상 키보드를 입력하는지 여부를 판단할 수 있다. 사용자 단말(700)는 기 정해진 임계값 이상의 압력이 입력되는 경우, 사용자가 가상 키보드를 입력하였다고 판단하고, 사용자에 의하여 입력된 신호를 입력신호로 결정할 수 있다.According to one disclosure, the pressure-sensitive sensor 701 may be installed to correspond to the positions of all finger distal ends of the user, and may determine whether the user inputs the virtual keyboard. When a pressure equal to or greater than a predetermined threshold is input, the user terminal 700 may determine that the user has inputted the virtual keyboard, and may determine the signal input by the user as the input signal.

일 개시에 의하여 플렉스센서(711)는 사용자의 손가락 첫째마디부터 셋째마디에 대응되도록 설치될 수 있다. 일 개시에 의하여, 플렉스센서(711)는 사용자 손가락의 구부름 정도를 측정하기 위하여 사용자의 손가락의 구부림 정도에 따라 변화되는 저항값으로부터 손가락의 구부림 정보를 측정할 수 있다. 플렉스 센서(711)는 플렉서블(flexible)소자로 이루어질 수 있으며, 헤드 소켓의 단자에 탈착 가능하게 부착되는 구부림 저항 측정 소자를 포함할 수 있다. 이러한 따라서, 플렉스센서(711)는 장갑형태의 사용자 단말(700)에서 용이하게 교체가능하다. According to one disclosure, the flex sensor 711 may be installed to correspond to the first joint to the third joint of the user's finger. According to one disclosure, the flex sensor 711 may measure the bending information of the finger from a resistance value that is changed according to the bending degree of the user's finger in order to measure the bending degree of the user's finger. The flex sensor 711 may be made of a flexible element, and may include a bending resistance measuring element detachably attached to the terminal of the head socket. Accordingly, the flex sensor 711 is easily replaceable in the glove-type user terminal 700 .

일 개시에 의하여 자이로센서(703)는 사용자의 검지손가락에 대응되도록 설치될 수 있다. 자이로 센서(703)는 일반적으로 키보드를 입력하는 범위가 가장 넓은 검지 손가락의 입력 위치를 정확하게 판단하기 위하여 사용된다. 보다 상세하게는, 사용자 단말(700)는 자이로센서(703)의 센싱 신호로부터, 검지 손가락의 좌우(x축) 위치를 판단함으로써 출력값을 판단할 수 있다.According to one disclosure, the gyro sensor 703 may be installed to correspond to the user's index finger. The gyro sensor 703 is generally used to accurately determine the input position of the index finger, which has the widest keyboard input range. More specifically, the user terminal 700 may determine the output value by determining the left and right (x-axis) positions of the index finger from the sensing signal of the gyro sensor 703 .

일 개시에 의하여 가상 쿼티 키보드는, 실제 키보드나 아닌 사용자 단말(700)의 손가락 각각에 설정된 키를 입력받을 수 있도록 하는 수단으로서, 사용자는 관성에 따라 손가락의 입력을 통하여 가상 쿼티 키보드를 입력할 수 있다.According to one disclosure, the virtual QWERTY keyboard is a means for receiving an input of a key set on each finger of the user terminal 700 other than the actual keyboard, and the user can input the virtual QWERTY keyboard through a finger input according to inertia. have.

일 개시에 의하여, 사용자 단말(700)는 감압 센서로부터 획득한 제 1 센싱 데이터가 임계값 이상에 해당하는지 여부를 판단할 수 있다. 일 개시에 의하여, 제 1 센싱 데이터는 사용자 단말(700)에서 감압 센서를 통해 인식한 압력신호를 나타낸다. 예를 들어, 사용자가 사용자 단말(700)를 장착한 상태에서 평평한 바닥면에 압력을 가하는 경우, 감압 센서에서 가해진 압력의 크기가 임계값 이상에 해당하는 경우, 상기 입력값을 제 1 센싱 데이터로 결정할 수 있다. 일 개시에 의하여, 사용자 단말(700)는 제 1 센싱 데이터의 값이 임계값 이하에 해당하는 경우, 키보드를 입력하기 위한 데이터가 아닌 에러값으로 판단함으로써 불필요한 입력을 분석하기 위한 에너지를 줄일 수 있다.According to one disclosure, the user terminal 700 may determine whether the first sensing data obtained from the pressure-sensitive sensor corresponds to a threshold value or more. According to one disclosure, the first sensed data represents a pressure signal recognized by the user terminal 700 through the pressure sensor. For example, when the user applies pressure to the flat floor surface while the user terminal 700 is mounted, when the magnitude of the pressure applied by the pressure sensor is equal to or greater than a threshold value, the input value is converted to the first sensing data. can decide According to one disclosure, when the value of the first sensed data falls below the threshold value, the user terminal 700 may reduce energy for analyzing unnecessary input by determining it as an error value rather than data for inputting the keyboard. .

일 개시에 의하여, 사용자 단말(700)는 감압 센서로부터 입력받은 압력을 소정의 임계값과 비교하고, 그 비교 결과에 따라 상기 입력 레벨을 선택하여 인식할 수 있다. 일 개시에 의한 임계값은 사용자에 의하여 미리 설정된 값일 수 있다. 또한, 일 개시에 의한 임계값은 사용자의 프로파일에 기초하여 사용자 맞춤형으로 설정된 압력값일 수 있다.According to one disclosure, the user terminal 700 may compare the pressure input from the pressure sensor with a predetermined threshold, and select and recognize the input level according to the comparison result. The threshold value by one start may be a value preset by the user. In addition, the threshold value according to the initiation may be a pressure value customized to the user based on the user's profile.

일 개시에 의하여, 사용자 단말(700)는 임계값 이상의 압력이 입력되기 시작한 시점을 특정 시점으로 설정되거나 또는 특정 시간 구간으로 설정할 수 있으며, 인식 시간에 입력된 상기 압력에 따라 상기 입력 레벨을 선택하는 것을 특징으로 할 수 있다. 여기서 인식 시간은 감압 센서로부터 소정의 크기 이상의 압력이 입력되기 시작한 시점을 기준으로 하여 50ms 내지 150ms의 시간으로 설정되는 것을 특징으로 할 수 있다.By one start, the user terminal 700 may set a time point at which a pressure greater than a threshold is inputted as a specific time point or a specific time period, and selects the input level according to the pressure input at a recognition time. can be characterized as Here, the recognition time may be set to a time of 50 ms to 150 ms based on a point in time when a pressure of a predetermined level or more is started to be input from the pressure-sensitive sensor.

일 개시에 의하여, 사용자 단말(700)는 플렉스 센서로부터 획득한 제 2 센싱 데이터로부터 입력신호의 y축 위치를 결정할 수 있다. 일 개시에 의하여, 사용자 단말(700)는 제 1 센싱 데이터를 획득한 소정 손가락을 기준으로, 소정 손가락에 미리 설정된 예비 출력값을 결정할 수 있다.According to one disclosure, the user terminal 700 may determine the y-axis position of the input signal from the second sensing data obtained from the flex sensor. According to one disclosure, the user terminal 700 may determine a preset output value for the predetermined finger based on the predetermined finger that has acquired the first sensing data.

일 개시에 의하여 예비 출력값은 미리 결정된 가상 쿼티 키보드 한줄 당 하나의 자판키를 나타낸다. 예를 들어, 영문 가상 쿼티 키보드 자판을 기준으로 왼쪽 약지 손가락은 W. S. X가 할당될 수 있으며, 왼쪽 중지 손가락은 E, D, C가 할당될 수 있다. 그러나, 검지 손가락의 경우 가상 쿼티 키보드 한줄당 두개의 자판키를 할당받을 수 있다. 예를 들어, 영문 가상 쿼티 키보드 자판을 기준으로 오른손 검지손가락은 Y, U, H, J, N, M이 할당될 수 있으며, 왼손 검지손가락은 T, R, G, F, B, V가 할당될 수 있다. According to one disclosure, the preliminary output value indicates one keyboard key per line of a predetermined virtual QWERTY keyboard. For example, based on the English virtual QWERTY keyboard keyboard, W. S. X may be assigned to the left ring finger, and E, D, and C may be assigned to the left middle finger. However, in the case of the index finger, two keyboard keys may be assigned per line of the virtual QWERTY keyboard. For example, based on the English virtual QWERTY keyboard, Y, U, H, J, N, M may be assigned to the index finger of the right hand, and T, R, G, F, B, and V may be assigned to the index finger of the left hand. can be

일 개시에 의하여, 사용자 단말(700)는 제 2 센싱 데이터로부터 입력신호가 검출된 손가락의 y축 위치를 결정함으로써, 사용자가 입력한 신호가 어떤 출력값인지 결정할 수 있다. 이때, 사용자 단말(700)는 자율주행로봇(100)와 페어링을 시작한 후 문자를 입력하기 전에 y축 위치를 결정하기 위한 기준점을 정할 수 있다. 예를 들어, 사용자 단말(700)는 자율주행로봇(100)으로부터 문자 입력 시작을 요청하는 메시지를 수신할 수 있으며, y축의 기준점 설정을 요청하는 메시지를 수신함에 따라 기준점을 설정할 수 있다. 또한, 다른 실시예에 의하여 사용자 단말(700)는 키보드 입력을 위한 애플리케이션을 통하여 기준점을 설정할 수 있다. y축 기준점을 설정하는 방식은 제한되지 않는다.According to one disclosure, the user terminal 700 may determine the output value of the signal input by the user by determining the y-axis position of the finger at which the input signal is detected from the second sensing data. In this case, after starting pairing with the autonomous driving robot 100 , the user terminal 700 may determine a reference point for determining the y-axis position before inputting a character. For example, the user terminal 700 may receive a message requesting the start of text input from the autonomous driving robot 100 , and may set the reference point in response to receiving the message requesting to set the y-axis reference point. Also, according to another embodiment, the user terminal 700 may set a reference point through an application for keyboard input. The method of setting the y-axis reference point is not limited.

일 개시에 의하여, 사용자 단말(700)는 입력 신호가 검지손가락으로부터 획득한 신호인지 여부를 판단할 수 있다. 입력 신호가 검지손가락인 경우, 같은 y축 위치에서 2개의 예비 출력값을 갖기 때문에, 정확한 위치 판단을 위한 추가적인 과정이 필요하다.According to one disclosure, the user terminal 700 may determine whether the input signal is a signal obtained from the index finger. When the input signal is the index finger, since it has two preliminary output values at the same y-axis position, an additional process for accurate position determination is required.

일 개시에 의하여, 사용자 단말(700)는 입력 신호가 검지손가락에서 입력된 신호로 판단된 경우, 제 3 센싱 데이터로부터 입력신호의 x축 위치를 결정할 수 있다. 일 개시에 의한 사용자 단말(700)는 x축 위치를 결정하기 위한 기준점을 미리 설정할 수 있다. 일 개시에 의한 사용자 단말(700)는 자율주행로봇(100)와 연결된 이후 소정의 시점에서 입력신호의 좌우 위치를 결정하기 위한 기준점을 설정할 수 있다. 사용자 단말(700)는 자이로센서에서 센싱된 신호를 이용하여 기준점으로부터 좌측에서 검출된 신호인지, 우측에서 검출된 신호인지 판단할 수 있다. 예를 들어, 오른쪽 검지 손가락에서 획득한 입력신호의 y축 위치가 가장 상단부인 경우 예비 출력값은 Y, U 이며, 기준점을 기준으로 우측값으로 판단된경우 최종 출력값은 U이다.According to one disclosure, when it is determined that the input signal is an input signal from the index finger, the user terminal 700 may determine the x-axis position of the input signal from the third sensing data. According to one disclosure, the user terminal 700 may preset a reference point for determining the x-axis position. According to one disclosure, the user terminal 700 may set a reference point for determining the left and right positions of the input signal at a predetermined point in time after being connected to the autonomous driving robot 100 . The user terminal 700 may determine whether the signal is detected from the left side or the right side from the reference point using the signal sensed by the gyro sensor. For example, when the y-axis position of the input signal acquired from the right index finger is the uppermost part, the preliminary output values are Y and U, and when it is determined as the right value based on the reference point, the final output value is U.

일 개시에 의하여, 사용자 단말(700)는 입력신호의 위치 정보로부터 출력값을 결정할 수 있다. 사용자 단말(700)는 입력신호의 위치 정보를 조합함으로써 최종적인 출력값을 결정할 수 있다. 예를 들어, 입력신호가 복수개로 입력되는 경우, 복수개의 입력신호를 조합한 값을 출력값으로서 자율주행로봇(100)으로 전송할 수 있다.According to one disclosure, the user terminal 700 may determine an output value from the location information of the input signal. The user terminal 700 may determine the final output value by combining the location information of the input signal. For example, when a plurality of input signals are input, a value obtained by combining the plurality of input signals may be transmitted to the autonomous driving robot 100 as an output value.

일 개시에 의하여, 사용자 단말(700)는 통신모듈(719)을 이용하여 출력 값을 자율주행로봇(100)으로 전송할 수 있다. 일 개시에 의하여 통신모듈(719)은 무선 또는 유선 통신이 가능한 모듈을 포함할 수 있다. 보다 구체적으로, 통신 모듈은 근거리 무선 통신 모듈을 포함할 수 있으며, 예를 들어, 근거리 무선 통신 방식에는 NFC 방식, 블루투스, 와이파이, 지그비, 바코드 인식 방식, QR 코드 인식 방식 등과 같은 다양한 방식이 있을 수 있다.According to one disclosure, the user terminal 700 may transmit an output value to the autonomous driving robot 100 using the communication module 719 . According to one disclosure, the communication module 719 may include a module capable of wireless or wired communication. More specifically, the communication module may include a short-range wireless communication module, for example, the short-range wireless communication method may include various methods such as NFC method, Bluetooth, Wi-Fi, Zigbee, barcode recognition method, QR code recognition method, etc. have.

일 개시에 의하여 사용자 단말(700)는 사용자의 열 손가락 각각의 말단부에 대응되도록 설치된 10개의 감압 센서(701)를 포함할 수 있다. 일 개시에 의하여 10개의 감압 센서(701)는 손가락 각각에 대응하는 고유의 식별정보를 포함할 수 있다. 따라서, 사용자 단말(700)는 임계값 이상의 압력이 센싱되는 경우, 신호가 센싱된 손가락을 판단함으로써 예비 출력값을 결정할 수 있다.According to one disclosure, the user terminal 700 may include ten pressure-sensitive sensors 701 installed to correspond to the distal end of each of the user's ten fingers. According to one disclosure, the ten pressure-sensitive sensors 701 may include unique identification information corresponding to each finger. Accordingly, when the pressure equal to or greater than the threshold value is sensed, the user terminal 700 may determine the preliminary output value by determining the finger at which the signal is sensed.

일 개시에 의하여, 플렉스 센서(711)는 사용자 손가락의 구부러짐 정도를 측정하기 위하여 사용자의 손가락 첫째마디부터 셋째마디에 대응되도록 설치될 수 있다. 일 개시에 의하여 플렉스 센서(711)는 사용자 손가락의 움직임의 편의성을 위하여 플렉스 센서(711)의 양끝 부분과 중간 부분만 장갑에 부착될 수 있다. According to one disclosure, the flex sensor 711 may be installed to correspond to the first joint to the third joint of the user's finger in order to measure the degree of bending of the user's finger. According to one disclosure, the flex sensor 711 may be attached to the glove only at both ends and the middle portion of the flex sensor 711 for the convenience of movement of the user's finger.

일 개시에 의하여, 자이로센서(703)는 사용자의 양손 검지 손가락에 설치되어, 검지손가락이 입력된 x축 위치를 판단할 수 있다. 자이로센서(703)는 손의 방향 정보를 측정한다. 추가적으로, 사용자 단말(700)는 가속도 정보를 측정하는 가속도 센서(acceleration sensor), 손의 회전 정보를 측정하는 자이로 센서(gyro sensor) 및 지자기의 방향을 측정하는 지자기 센서를 포함할 수 있다. 자이로센서(703)의 측정값은 관성 측정 장치(IMU; Inertial Measurement Unit)로 제공될 수 있다. 관성 측정 장치는 이동 관성을 측정할 수 있는 가속도계와, 회전 관성을 측정할 수 있는 자이로계, 방위각을 측정할 수 있는 자계의 총 세 가지 센서로 이루어진 하나의 통합 유닛 형태로 제공될 수 있으며, 가속도계와 자이로계 및 자계에 대한 측정값을 이용하여 3축, 즉 피치(pitch), 롤(roll), 요(yaw)에 대한 회전 정보를 획득할 수 있다. According to one disclosure, the gyro sensor 703 may be installed on the index finger of both hands of the user to determine the x-axis position to which the index finger is input. The gyro sensor 703 measures the direction information of the hand. Additionally, the user terminal 700 may include an acceleration sensor for measuring acceleration information, a gyro sensor for measuring rotation information of the hand, and a geomagnetic sensor for measuring the direction of the geomagnetism. The measured value of the gyro sensor 703 may be provided to an inertial measurement unit (IMU). The inertial measuring device may be provided in the form of one integrated unit consisting of a total of three sensors: an accelerometer capable of measuring movement inertia, a gyrometer capable of measuring rotational inertia, and a magnetic field capable of measuring an azimuth. Rotation information on three axes, that is, pitch, roll, and yaw, may be obtained by using the measured values of the gyroscope and the magnetic field.

일 개시에 의하여, 프로세서(715)는 감압센서(701), 자이로센서(703) 및 플렉스센서(711)에서 인식한 사용자 입력신호의 오차율을 줄이기 위하여 히스테리시스(Hysteresis) 파라미터 범위를 20% 미만으로 설정할 수 있다.According to one disclosure, the processor 715 sets the hysteresis parameter range to less than 20% in order to reduce the error rate of the user input signal recognized by the pressure-sensitive sensor 701 , the gyro sensor 703 and the flex sensor 711 . can

도 7은 일 개시에 의한 사용자 단말에서 제 1 센싱 데이터를 인식하는 동작을 설명하기 위한 도면이다. 도 7에서 L1, L2, L3은 각각 사용자가 제1 내지 제3 입력 레벨의 의도하면서 서로 다른 크기의 힘을 가한 경우 압력의 증감을 나타내는 그래프를 지칭한다. 다시 말하면 각각 약 레벨, 중 레벨, 강 레벨의 정도로 힘을 가한 경우를 지칭한다. 일 개시에 의하여, 사용자의 입력에 따라 바닥면에 가해지는 힘은 40~50ms 정도에서 급격히 증가하기 시작하여 80 ~ 100ms 정도에서 피크를 나타낸 다음 110 ~ 120ms 정도에서 크기 감소가 종료됨을 확인할 수 있다.7 is a view for explaining an operation of recognizing first sensed data in a user terminal according to one disclosure. In FIG. 7 , L1, L2, and L3 refer to graphs representing increases and decreases in pressure when the user intentionally applies forces of different magnitudes to the first to third input levels. In other words, it refers to a case where the force is applied to a weak level, a medium level, and a strong level, respectively. By the start, it can be confirmed that the force applied to the floor according to the user's input starts to increase rapidly at about 40-50 ms, peaks at about 80-100 ms, and then ends at about 110-120 ms.

이상과 같은 실험 결과를 고려하였을 때, 상기 인식 시간은 감압 센서부(200)로부터 소정의 크기 이상의 상기 압력이 입력되기 시작한 시점을 기준으로 하여 50ms 내지 150ms의 시간으로 설정되는 것이 바람직하다. 그리고 보다 바람직하게는 70ms 내지 110ms의 시간으로 설정되는 것이 바람직하다. 여기서, 50ms 보다 작거나 150ms 보다 큰 시간을 인식 시간으로 설정하면, 사용자 단말에 가해지는 입력에 따라 가해진 압력의 크기를 올바르게 측정할 수 없음을 확인할 수 있다.Considering the experimental results as described above, the recognition time is preferably set to a time of 50 ms to 150 ms based on the time when the pressure of a predetermined size or more is started to be input from the pressure-sensitive sensor unit 200 . And it is more preferably set to a time of 70 ms to 110 ms. Here, when a time less than 50 ms or greater than 150 ms is set as the recognition time, it can be confirmed that the magnitude of the pressure applied according to the input applied to the user terminal cannot be measured correctly.

인식 시간은 감압 센서(701)로부터 소정의 크기 이상의 상기 압력이 입력되기 시작한 시점으로부터 소정의 시간 동안, 상기 압력이 최대값을 가지는 시간을 기준으로 설정될 수도 있다. 바람직하게는 상기 압력이 최대값을 가지는 시간이 인식 시간이 될 수 있다.The recognition time may be set based on a time when the pressure has a maximum value during a predetermined time from the time when the pressure of a predetermined level or more is started to be input from the pressure reduction sensor 701 . Preferably, the time when the pressure has a maximum value may be the recognition time.

여기서 사용자 단말(700)는 고정된 인식 시간을 설정하지 않고 입력되는 압력의 크기의 변화를 분석하여, 압력이 최대값을 가지는 시점에서의 압력의 크기를 기준으로 입력 레벨을 선택할 수 있다. 이와 같이 최대 압력값을 이용하는 경우 보다 정확하게 사용자가 의도한 압력의 크기를 인식하고 그에 따라 입력 레벨을 결정할 수 있는 효과가 있다.Here, the user terminal 700 may analyze the change in the magnitude of the input pressure without setting a fixed recognition time, and select the input level based on the magnitude of the pressure at the point in time when the pressure has a maximum value. In this way, when the maximum pressure value is used, there is an effect that the user can more accurately recognize the amount of pressure intended by the user and determine the input level accordingly.

이를 위하여 사용자 단말(700)는 시간의 흐름에 따라 감압 센서(701)로부터 입력되는 압력의 크기를 시간 별로 저장하고, 저장된 압력들 중에서 가장 큰 압력을 이용하여 입력 레벨을 결정할 수 있다.To this end, the user terminal 700 may store the magnitude of the pressure input from the pressure reduction sensor 701 over time according to time, and determine the input level using the largest pressure among the stored pressures.

다만 이와 같이 최대값을 이용하는 경우 최대값 식별을 위하여 저장모듈이 소요되고 신호 처리를 위한 전력이 소모될 수 있으므로, 전력을 절약하기 위하여 상술한 바 미리 설정된 인식 시간을 사용할 수 있다. 이와 같이 미리 설정된 인식 시간을 사용하는 경우 해당 인식 시간에서 입력된 압력만을 이용하여 입력 레벨을 결정할 수 있으므로 신호 처리에 소모되는 전력을 최소화할 수 있는 효과가 있다.However, in the case of using the maximum value as described above, a storage module is required to identify the maximum value and power for signal processing may be consumed, so that the previously set recognition time may be used in order to save power. In the case of using the preset recognition time as described above, since the input level can be determined using only the pressure input at the corresponding recognition time, power consumption for signal processing can be minimized.

다른 실시예에 의하여 사용자 단말(700)는 입력 레벨의 인식을 위하여 사용자 별로 가장 적합한 임계치를 사용자의 입력에 따라 설정할 수 있다. According to another embodiment, the user terminal 700 may set the most suitable threshold for each user according to the user's input in order to recognize the input level.

일 개시에 의하여, 임계치는 사용자 단말(700)에 의하여 구동되는 설정 프로그램에 의하여 사용자에게 제시되는 복수개의 값들 중에서 사용자의 선택 입력에 따라 선택되어 설정될 수도 있다. 예를 들어 설정 프로그램의 설계자는 각 나이, 성별, 신체적 조건을 가지는 사용자들에 대하여 사용자 단말(700)에 대한 입력 시 가하는 힘의 정도를 측정하는 실험 결과 통계에 따라, 내어 각 나이, 성별, 신체적 조건을 가지는 사용자에게 가장 적합한 임계치 값을 결정하고, 그에 따라 설정 프로그램에서 사용자의 나이, 성별, 신체적 조건에 따른 사용자 프로파일 별 임계치 값을 설정할 수 있다. 예를 들면 사용자 단말(700)에 의하여 구동되는 설정 프로그램에서는 각 사용자 프로파일 별로 임계치 값이 미리 설정되고, 사용자 프로파일에 대한 사용자의 선택 입력을 수신하여 선택된 프로파일에 대하여 미리 설정된 임계치 값을 이용할 수 있는 것이다. 예를 들어 설정 프로그램이 나이와 연령 대 별 사용자 프로파일에 대응하는 임계치 값을 미리 저장하고 있고, 사용자가 여자, 20대의 사용자 프로파일을 선택하면, 사용자 단말(700)는 여자, 20대의 사용자 프로파일에 대하여 미리 설정된 임계치 값(제1 임계치 : 0.5N, 제2 임계치 3N)을 이용할 수 있는 것이다.According to one disclosure, the threshold value may be selected and set according to a user's selection input from among a plurality of values presented to the user by a setting program driven by the user terminal 700 . For example, the designer of the setting program measures the degree of force applied to the user terminal 700 for each age, gender, and physical condition for users with each age, gender, and physical condition according to the statistical result of the experiment. A threshold value most suitable for a user having a condition may be determined, and accordingly, a threshold value for each user profile may be set in a setting program according to the user's age, gender, and physical condition. For example, in the setting program driven by the user terminal 700, a threshold value is preset for each user profile, and a preset threshold value can be used for the selected profile by receiving a user's selection input for the user profile. . For example, if the setting program pre-stores a threshold value corresponding to a user profile for each age and age group, and the user selects a female user profile or a user profile in her twenties, the user terminal 700 is configured with respect to the user profile of a woman or a user in their twenties. A preset threshold value (first threshold value: 0.5N, second threshold value 3N) may be used.

또는 임계치는 사용자 단말(700)가 각 사용자의 터치 입력에 따라 발생한 압력을 이용하는 방식으로 설정될 수도 있다. 여기서 사용자 단말(700)는 감압 센서(701)로부터 입력받은 압력을 이용하여 상기 입력 레벨을 선택하기 위하여 비교 기준이 되는 소정의 임계치를 설정할 수 있다.Alternatively, the threshold value may be set in such a way that the user terminal 700 uses pressure generated according to each user's touch input. Here, the user terminal 700 may set a predetermined threshold as a comparison standard in order to select the input level using the pressure input from the pressure reduction sensor 701 .

사용자 단말(700)는 센서부, 배터리 및 저장모듈(712)를 포함할 수 있다. The user terminal 700 may include a sensor unit, a battery, and a storage module 712 .

일 개시에 의하여 센서부는 감압센서, 자이로센서, 플렉스센서를 포함한 다양한 센서를 포함할 수 있다. 예를 들어, 센서부는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.According to one disclosure, the sensor unit may include various sensors including a pressure sensor, a gyro sensor, and a flex sensor. For example, the sensor unit includes a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor. can do.

일 개시에 의하여 배터리는 사용자 단말(700)의 기능을 수행하는데 필요한 전원을 공급하는 배터리(battery)를 포함하며, 예시적으로 리튬 폴리머 배터리를 포함할 수 있다.According to one disclosure, the battery includes a battery for supplying power required to perform a function of the user terminal 700 , and may include, for example, a lithium polymer battery.

또한, 사용자 단말(700)는 하나 이상의 인스트럭션을 저장하는 저장모듈(712) 및 저장모듈(712)에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서(715)를 포함할 수 있다.In addition, the user terminal 700 may include a storage module 712 for storing one or more instructions and a processor 715 for executing one or more instructions stored in the storage module 712 .

일 개시에 의하여 프로세서(715)는, 예를 들면, 소프트웨어(예: 프로그램)를 구동하여 프로세서(715)에 연결된 사용자 단말(700)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(715)는 다른 구성요소( Ex. 통신 모듈(719) )로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(715)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서는 메인 프로세서와 별개로 또는 임베디드되어 운영될 수 있다.According to one disclosure, the processor 715, for example, by driving software (eg, a program) to at least one other component (eg, hardware or software component) of the user terminal 700 connected to the processor 715 can be controlled, and various data processing and operations can be performed. The processor 715 may load a command or data received from another component (eg, the communication module 719 ) into a volatile memory for processing, and store the result data in a non-volatile memory. According to an embodiment, the processor 715 is operated independently of the main processor (eg, central processing unit or application processor), and additionally or alternatively, uses less power than the main processor, or an auxiliary specialized for a specified function. It may include a processor (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor). Here, the auxiliary processor may be operated separately from or embedded in the main processor.

일 개시에 의하여 프로세서(715)는 제 1 키보드 입력이 검지 손가락에 의한 입력인 경우, 추가적으로 제 3 센싱 데이터를 이용하여 제 1 키보드 입력의 x축 방향의 위치를 결정하고, 결정된 제 1 키보드 입력의 x축 위치 및 y축 위치에 대응하는 출력값을 결정하는 것을 특징으로 한다.According to one disclosure, when the first keyboard input is an input by the index finger, the processor 715 additionally determines the position of the first keyboard input in the x-axis direction by using the third sensing data, and It is characterized in that an output value corresponding to the x-axis position and the y-axis position is determined.

일 개시에 의하여 프로세서(715)는, 사용자의 프로파일에 기초하여 제 1 센싱 데이터의 임계값을 결정하고, 감압 센서를 통해 임계값 이상의 압력이 감지되는 경우, 압력이 감지된 손가락에 대응하는 적어도 하나의 키를 예비 출력값으로서 결정하고, 제 2 센싱 데이터 및 제 3 센싱 데이터 중 적어도 하나로부터 획득한 위치 정보에 기초하여, 예비 출력값 중 어느 하나를 출력 값으로 결정할 수 있다.According to one disclosure, the processor 715 determines a threshold value of the first sensing data based on the user's profile, and when a pressure equal to or greater than the threshold value is sensed through the pressure-sensitive sensor, at least one corresponding to the pressure-detected finger. It is possible to determine a key of as a preliminary output value, and determine any one of the preliminary output values as an output value based on location information obtained from at least one of the second sensing data and the third sensing data.

일 개시에 의하여 프로세서(715)는 사용자 단말에 설치된 10개의 감압 센서 각각에 대하여 적어도 하나의 예비 출력값을 매핑하고, 입력신호의 위치가 명확하기 않다고 판단되는 경우, 입력신호를 획득한 감압 센서에 매핑된 적어도 하나의 예비 출력값을 자율주행로봇(100)으로 전송하고, 적어도 하나의 예비 출력값 중 어느 하나를 선택하는 사용자 입력에 기초하여 출력 신호를 결정할 수 있다.According to one disclosure, the processor 715 maps at least one preliminary output value to each of the ten pressure-sensitive sensors installed in the user terminal, and when it is determined that the position of the input signal is not clear, the input signal is mapped to the pressure-sensitive sensor obtained The at least one preliminary output value may be transmitted to the autonomous driving robot 100 , and an output signal may be determined based on a user input for selecting any one of the at least one preliminary output value.

일 개시에 의하여, 저장모듈(712)는 프로세서(715)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 본 발명의 장치로 입력되거나 또는 장치에서 출력되는 데이터를 저장할 수도 있다. 저장모듈(712)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈이다.According to one disclosure, the storage module 712 may store a program for processing and control of the processor 715 , and may also store data input to or output from the device of the present invention. Programs stored in the storage module 712 may be classified into a plurality of modules according to their functions, where the plurality of modules are software, not hardware, and are functionally operated modules.

저장모듈(712)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈을 의미할 수 있다.Programs stored in the storage module 712 may be classified into a plurality of modules according to their functions. Here, the plurality of modules are software, not hardware, and may mean modules that operate functionally.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. 즉, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Although the preferred embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also provided. is within the scope of the That is, the scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be interpreted as being included in the scope of the present invention. do.

20: 반려동물 30: 반려동물용 간식
40: 생활영역
41: 제 1 영역 42: 제 2 영역
100: 자율주행로봇
110: 개방부
111: 프레임 112: 하측면
20: Pets 30: Snacks for pets
40: life area
41: first area 42: second area
100: autonomous driving robot
110: opening
111: frame 112: lower side

Claims (3)

자율주행로봇을 이용한 반려동물 운동훈련 방법에 있어서,
사용자 단말로부터의 제어신호에 의하거나 상기 사용자 단말을 통해 미리 설정된 시작시간이 되면 자율주행로봇 내에 마련되어 반려동물용 간식이 수용된 개방부가 일부 개방되는 단계;
상기 자율주행로봇이 상기 반려동물의 생체정보를 이용하여 설정된 주행 경로에 따라 이동하는 단계;
상기 반려동물의 신체 일부에 부착된 센서모듈로부터 수신한 신호에 기초하여 상기 반려동물의 위치정보 및 상기 반려동물의 상기 자율주행로봇으로부터의 거리정보를 감지하는 단계;
상기 거리정보에 기초하여 상기 개방부에 마련된 공기순환부를 동작시킴으로써 상기 반려동물용 간식의 냄새가 상기 개방부 외부로 유출되는 단계; 및
상기 위치정보에 기초하여 상기 반려동물의 운동수행능력을 평가하기 위한 활동스코어를 도출하고, 상기 도출된 활동스코어에 기초하여 개방부를 통해 배출되는 상기 반려동물용 간식의 양이 결정되는 단계를 포함하는,
자율주행로봇을 이용한 반려동물 운동훈련 방법.
In a companion animal exercise training method using an autonomous driving robot,
A step of partially opening an opening provided in the autonomous driving robot in response to a control signal from a user terminal or a preset start time through the user terminal, and accommodating snacks for companion animals;
moving the autonomous driving robot according to a driving route set using the biometric information of the companion animal;
detecting the location information of the companion animal and distance information of the companion animal from the autonomous driving robot based on a signal received from a sensor module attached to the body part of the companion animal;
a step of operating an air circulation unit provided in the opening part based on the distance information, so that the odor of the companion animal snack is leaked to the outside of the opening part; and
Deriving an activity score for evaluating the exercise performance of the companion animal based on the location information, and determining the amount of the companion animal snack discharged through the opening based on the derived activity score ,
A companion animal exercise training method using an autonomous driving robot.
제 1 항에 있어서,
상기 반려동물용 간식의 냄새가 상기 개방부 외부로 유출되는 단계에서는,
상기 거리정보에 기초하여 상기 반려동물이 제 2 영역에 위치하는 것으로 판단된다면 상기 자율주행로봇이 상기 반려동물 방향으로 상기 반려동물이 제 1 영역에 위치할때까지 이동하고,
상기 반려동물이 제 1 영역에 위치하는 것으로 판단된다면 상기 공기순환부의 출력을 상기 반려동물과 상기 자율주행로봇 간 이격거리에 비례하도록 동작시키고,
상기 제 1 영역은 상기 자율주행로봇을 중심으로 미리 결정된 기준길이를 반지름으로 하는 가상의 원을 포함하는 영역이고, 상기 제 2 영역은 상기 반려동물의 생활영역 중 상기 제 1 영역을 제외한 영역인 것인,
자율주행로봇을 이용한 반려동물 운동훈련 방법.
The method of claim 1,
In the step of leaking the smell of the companion animal snack to the outside of the opening,
If it is determined that the companion animal is located in the second area based on the distance information, the autonomous driving robot moves in the direction of the companion animal until the companion animal is located in the first area,
If it is determined that the companion animal is located in the first area, the output of the air circulation unit is operated to be proportional to the separation distance between the companion animal and the autonomous driving robot,
The first area is an area including a virtual circle having a predetermined reference length as a radius around the autonomous driving robot, and the second area is an area other than the first area among the living areas of the companion animal. sign,
A companion animal exercise training method using an autonomous driving robot.
제 1 항에 있어서,
상기 사용자 단말은,
사용자의 모든 손가락 말단부에 대응되도록 설치된 감압 센서;
상기 사용자의 손가락 첫째마디부터 셋째마디에 대응되도록 설치된 플렉스 센서;
상기 사용자의 검지 손가락의 말단부에 설치된 자이로센서;
상기 자율주행로봇과 통신하기 위한 통신모듈;
하나 이상의 인스트럭션을 저장하는 저장모듈; 및
상기 저장모듈에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 감압 센서로부터 획득한 제 1 센싱 데이터로부터 가상 쿼티 키보드를 입력하는 입력신호를 판단하고, 상기 플렉스 센서로부터 획득한 제 2 센싱 데이터로부터 상기 가상 쿼티 키보드에서 입력신호가 검출된 위치를 판단하며, 상기 자이로센서로부터 획득한 제 3 센싱 데이터로부터 검지 손가락으로부터 입력된 입력신호의 위치를 판단한 결과에 기초하여 출력신호를 생성하고, 상기 통신모듈을 이용하여 상기 출력신호를 사용자의 제어신호로써 상기 자율주행로봇으로 전송하는 것인,
자율주행로봇을 이용한 반려동물 운동훈련 방법.

The method of claim 1,
The user terminal is
a pressure sensor installed to correspond to the end of all fingers of the user;
a flex sensor installed to correspond to the user's first joint to the third joint;
a gyro sensor installed at the distal end of the user's index finger;
a communication module for communicating with the autonomous driving robot;
a storage module for storing one or more instructions; and
A processor for executing the one or more instructions stored in the storage module;
The processor determines an input signal for inputting a virtual QWERTY keyboard from the first sensing data obtained from the pressure sensor, and determines a position where the input signal is detected from the virtual QWERTY keyboard from the second sensing data obtained from the flex sensor and generates an output signal based on a result of determining the position of the input signal input from the index finger from the third sensing data obtained from the gyro sensor, and uses the communication module to convert the output signal as a user's control signal. It is transmitted to an autonomous driving robot,
A companion animal exercise training method using an autonomous driving robot.

KR1020200015110A 2020-02-07 2020-02-07 Companion exercise training method using autonomous driving robot KR102402168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200015110A KR102402168B1 (en) 2020-02-07 2020-02-07 Companion exercise training method using autonomous driving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200015110A KR102402168B1 (en) 2020-02-07 2020-02-07 Companion exercise training method using autonomous driving robot

Publications (2)

Publication Number Publication Date
KR20210101015A true KR20210101015A (en) 2021-08-18
KR102402168B1 KR102402168B1 (en) 2022-05-25

Family

ID=77464695

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200015110A KR102402168B1 (en) 2020-02-07 2020-02-07 Companion exercise training method using autonomous driving robot

Country Status (1)

Country Link
KR (1) KR102402168B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230036342A (en) 2021-09-07 2023-03-14 (주)워키도기 Pet training system and method thereof
WO2023146109A1 (en) * 2022-01-26 2023-08-03 삼성전자 주식회사 Mobile robot and control method therefor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047952A (en) 1999-11-24 2001-06-15 윤종용 Resist composition and method for forming a contact using the same
KR20090066521A (en) * 2007-12-20 2009-06-24 한국과학기술원 Robot system for supervising pet robot and management method therefor
KR20170098621A (en) * 2016-02-22 2017-08-30 (주)아이오텍 Companion animal friend robot based internet of things companion animal management system using the same
KR101817736B1 (en) * 2016-02-25 2018-02-21 동양미래대학교 산학협력단 Robot for playing with pets
KR101898661B1 (en) * 2017-03-06 2018-09-14 주식회사 네오디스 Docking station apparatus supporting smart moving device for fet training and system thereof
KR20190092782A (en) * 2018-01-31 2019-08-08 (주)유즈브레인넷 Glove-type Motion Recognizing Apparatus Capable of Recognizing Motion of Fingers and Hands on the Space and Recognizing Method thereof
KR20190098819A (en) * 2018-01-31 2019-08-23 (주)로뎀기술 Management System for pet

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047952A (en) 1999-11-24 2001-06-15 윤종용 Resist composition and method for forming a contact using the same
KR20090066521A (en) * 2007-12-20 2009-06-24 한국과학기술원 Robot system for supervising pet robot and management method therefor
KR20170098621A (en) * 2016-02-22 2017-08-30 (주)아이오텍 Companion animal friend robot based internet of things companion animal management system using the same
KR101817736B1 (en) * 2016-02-25 2018-02-21 동양미래대학교 산학협력단 Robot for playing with pets
KR101898661B1 (en) * 2017-03-06 2018-09-14 주식회사 네오디스 Docking station apparatus supporting smart moving device for fet training and system thereof
KR20190092782A (en) * 2018-01-31 2019-08-08 (주)유즈브레인넷 Glove-type Motion Recognizing Apparatus Capable of Recognizing Motion of Fingers and Hands on the Space and Recognizing Method thereof
KR20190098819A (en) * 2018-01-31 2019-08-23 (주)로뎀기술 Management System for pet

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230036342A (en) 2021-09-07 2023-03-14 (주)워키도기 Pet training system and method thereof
WO2023146109A1 (en) * 2022-01-26 2023-08-03 삼성전자 주식회사 Mobile robot and control method therefor

Also Published As

Publication number Publication date
KR102402168B1 (en) 2022-05-25

Similar Documents

Publication Publication Date Title
AU2018223232B2 (en) Wearable apparatus for an animal
Anjum et al. Activity recognition using smartphone sensors
KR102402168B1 (en) Companion exercise training method using autonomous driving robot
CN107220582A (en) Recognize the driver of vehicle
CN105748037B (en) The body-sensing vest of biological feedback system with the patient for suffering from scoliosis
KR102474246B1 (en) Method and system for processing Neural network model using a plurality of electronic devices
US11610506B2 (en) Method and apparatus for providing guide information associated with exercise intensity on basis of user activity information
JP2018079300A (en) Kettlebell with integrated motion sensors and kinetic charging system
KR20170009215A (en) Apparatus for smart training and operating method thereof
US20180268280A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
US20180182489A1 (en) Measure-based chaining of notifications
US20210346237A1 (en) Massage apparatus
JP7027752B2 (en) Information processing equipment, information processing methods, programs, and information processing systems
US20240033578A1 (en) Method and system for providing exercise program to user
US20210094167A1 (en) Apparatus connected to robot, and robot system including the robot and the apparatus
KR20220105941A (en) Electronic device and operating method for identifying a force touch
KR102517958B1 (en) APPARATUS AND METHOD FOR RECORDING EXERCISE INFORMATION OR PROVIDING EXERCISE ASSISTANCE INFORMATION IN SMART GYM USING IoT DEVICE
US20190134463A1 (en) Wearable system, wearable device, cloud server and operating method thereof
Kawsar et al. Activity detection using time-delay embedding in multi-modal sensor system
US20190121803A1 (en) Scoring of micromodules in a health program feed
Tietz et al. A reservoir computing framework for continuous gesture recognition
US20240009519A1 (en) Method and system for providing exercise programs to user
KR102549119B1 (en) EQUIPMENT OCCUPANCY MANAGEMENT SYSTEM AND METHOD IN SMART GYM USING IoT DEVICE
US20230036302A1 (en) Electronic device for generating workout type and method of operating the same
US11520403B2 (en) Wireless control device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant